Les pages du top 10 perdent leur monopole dans les AI Overviews
Pendant des mois, l'hypothèse dominante était simple : les AI Overviews de Google piochent leurs citations dans les résultats organiques de la première page. Les données récentes publiées par Search Engine Journal démolissent cette hypothèse. La part des citations provenant des pages classées en position 1 à 10 chute significativement, tandis que des sources bien au-delà de la première page — et des plateformes comme YouTube — s'imposent dans les réponses générées.
Ce n'est pas un ajustement cosmétique. C'est un changement structurel dans la façon dont Google sélectionne l'information qu'il synthétise. Pour les équipes SEO qui pilotent des sites de 5 000 à 50 000 pages, les implications sont profondes : le ranking traditionnel ne garantit plus la visibilité dans le canal qui capte une part croissante de l'attention utilisateur.
Le mécanisme des fan-out queries : comment Google élargit son champ de citations
Le principe technique
Pour comprendre pourquoi les citations s'éloignent du top 10, il faut comprendre comment les AI Overviews sont construites côté système. Google ne se contente pas de reformuler les résultats de la SERP classique. Le modèle génératif effectue ce qu'on appelle des fan-out queries : à partir de la requête utilisateur initiale, le système génère une série de sous-requêtes dérivées pour couvrir les différentes facettes du sujet.
Prenons un exemple concret. L'utilisateur tape meilleure stratégie de migration https. Le système peut décomposer cette requête en sous-requêtes internes :
redirection 301 migration https étapesmixed content errors après migration sslimpact seo migration http vers https donnéeshsts preload configuration
Chaque sous-requête a son propre ensemble de résultats. Les sources citées dans l'AI Overview sont donc un agrégat de résultats provenant de multiples SERPs internes, pas uniquement de la SERP que vous voyez.
Ce que cela signifie pour le crawl et l'indexation
Ce mécanisme a une conséquence directe : des pages qui ne rankent pas dans le top 10 de la requête principale peuvent être citées si elles rankent bien sur une sous-requête spécifique. Un article de blog technique très pointu sur les erreurs de mixed content, classé en position 23 sur la requête principale, peut se retrouver cité dans l'AI Overview parce qu'il est en position 2 sur la sous-requête dérivée.
Vous pouvez observer ce phénomène en analysant les pages de votre site qui reçoivent des impressions dans la Search Console pour des requêtes que vous ne ciblez pas directement :
# Export Search Console via l'API pour identifier les requêtes "long tail"
# associées à des pages qui reçoivent des impressions sans clic
curl -X POST \
'https://www.googleapis.com/webmasters/v3/sites/https%3A%2F%2Fvotre-site.fr/searchAnalytics/query' \
-H 'Authorization: Bearer YOUR_ACCESS_TOKEN' \
-H 'Content-Type: application/json' \
-d '{
"startDate": "2026-01-01",
"endDate": "2026-03-01",
"dimensions": ["query", "page"],
"dimensionFilterGroups": [{
"filters": [{
"dimension": "page",
"expression": "https://votre-site.fr/blog/",
"operator": "contains"
}]
}],
"rowLimit": 5000,
"dataState": "all"
}'
Filtrez ensuite les résultats pour isoler les combinaisons page/query où le CTR est à 0% mais les impressions sont élevées. Ces impressions proviennent souvent de requêtes fan-out qui alimentent des AI Overviews — l'utilisateur voit la réponse synthétisée et ne clique pas.
L'impact sur la stratégie de contenu
Le modèle mental classique — "je cible un mot-clé, je vise le top 3" — reste pertinent pour le trafic organique traditionnel. Mais pour la visibilité dans les AI Overviews, la couverture thématique granulaire devient le levier principal. Un site qui traite un sujet en profondeur avec 15 articles spécialisés a statistiquement plus de chances d'être cité dans les fan-out queries qu'un site avec un seul article "guide ultime" de 5 000 mots.
C'est le retour en force du modèle hub-and-spoke, mais avec une nuance importante : les articles "spoke" doivent être suffisamment autonomes et précis pour ranker sur des requêtes très spécifiques, pas simplement servir de maillage interne vers le pillar page.
YouTube dans les citations AI Overview : un canal à ne plus ignorer
Les données observées
L'un des constats les plus significatifs des données récentes est la présence croissante de YouTube dans les sources citées par les AI Overviews. Ce n'est pas surprenant d'un point de vue technique : Google a accès aux transcriptions automatiques de toutes les vidéos YouTube, et ces transcriptions représentent un corpus textuel massif et souvent très spécifique.
Pour un e-commerce de 15 000 pages qui vend du matériel de bricolage, cela change la donne. Les vidéos tutorielles sur YouTube — qu'elles soient produites par la marque ou par des créateurs tiers — peuvent être citées dans les AI Overviews à la place des fiches produit ou des guides d'achat du site.
Optimiser les transcriptions YouTube pour les AI Overviews
La qualité de la transcription automatique de YouTube est médiocre sur les termes techniques. Si votre chaîne YouTube produit du contenu technique, fournir des sous-titres manuels améliore drastiquement la qualité du texte que Google peut extraire et citer.
<!-- Exemple de fichier SRT optimisé pour un tutoriel technique -->
<!-- Les termes techniques sont correctement orthographiés -->
<!-- Chaque segment couvre une idée complète -->
1
00:00:00,000 --> 00:00:04,500
La migration d'un site e-commerce de HTTP vers HTTPS
nécessite une stratégie de redirection 301 systématique.
2
00:00:04,500 --> 00:00:09,800
Chaque URL doit être redirigée individuellement.
Les redirections wildcard ne suffisent pas pour les sites
avec des paramètres d'URL dynamiques.
3
00:00:09,800 --> 00:00:15,200
Utilisez Screaming Frog pour crawler l'intégralité
du site en HTTP et générer la liste des URL à rediriger.
Exportez en CSV, puis transformez en règles de redirection.
4
00:00:15,200 --> 00:00:21,000
Attention aux erreurs de mixed content : après la migration,
toutes les ressources — images, scripts, feuilles de style —
doivent être servies en HTTPS.
L'enjeu n'est pas seulement le SEO YouTube classique (titre, tags, description). C'est la qualité du texte extractible par le système de génération des AI Overviews. Un fichier SRT bien structuré, avec des phrases complètes et des termes techniques corrects, donne à Google un signal de qualité bien supérieur à une transcription automatique approximative.
Le markup VideoObject pour renforcer la connexion
Pour les vidéos embarquées sur votre propre site, le balisage VideoObject en JSON-LD reste le standard pour signaler à Google la relation entre votre page et le contenu vidéo. Mais dans le contexte des AI Overviews, un attribut souvent négligé prend de l'importance : transcript.
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "VideoObject",
"name": "Migration HTTPS : checklist technique complète",
"description": "Guide pas-à-pas pour migrer un site e-commerce de HTTP vers HTTPS sans perte de trafic SEO.",
"thumbnailUrl": "https://cdn.votre-site.fr/thumbs/migration-https.jpg",
"uploadDate": "2026-02-15",
"duration": "PT12M30S",
"contentUrl": "https://www.youtube.com/watch?v=abc123xyz",
"embedUrl": "https://www.youtube.com/embed/abc123xyz",
"transcript": "La migration d'un site e-commerce de HTTP vers HTTPS nécessite une stratégie de redirection 301 systématique. Chaque URL doit être redirigée individuellement. Les redirections wildcard ne suffisent pas pour les sites avec des paramètres d'URL dynamiques..."
}
</script>
La propriété transcript n'est pas obligatoire selon la documentation Google sur les données structurées vidéo, mais elle fournit un signal textuel explicite que le système peut utiliser pour évaluer la pertinence du contenu par rapport aux fan-out queries.
Scénario concret : un média tech de 8 000 pages face à la chute des citations top 10
Le contexte
Prenons le cas réaliste d'un média tech français — appelons-le TechScope — avec 8 000 articles indexés, un DA de 65, et un trafic organique de 1,2 million de sessions mensuelles. TechScope produit 40 articles par semaine couvrant l'actualité tech, les guides d'achat et les tutoriels développeurs.
Avant le déploiement massif des AI Overviews, TechScope captait environ 15% de ses clics sur des requêtes informationnelles où il rankait en position 1 à 5. En analysant les données Search Console sur 6 mois, l'équipe SEO constate :
- Impressions stables sur les requêtes cibles (les articles sont toujours bien positionnés)
- CTR en baisse de 22% sur les requêtes informationnelles à fort volume
- Clics en hausse de 8% sur les requêtes très spécifiques (long tail technique)
Le diagnostic : les AI Overviews absorbent les clics sur les requêtes "head", mais les articles très spécialisés captent du trafic sur les fan-out queries.
La stratégie d'adaptation
L'équipe restructure sa production éditoriale avec un ratio cible : pour chaque article "head" (ex : "meilleur smartphone 2026"), produire 4 à 5 articles "spoke" ultra-spécifiques (ex : "autonomie Galaxy S26 Ultra test charge rapide", "comparatif capteur photo S26 vs iPhone 18 nuit").
Pour mesurer l'impact, ils mettent en place un script de monitoring qui croise les données Search Console avec la détection de présence dans les AI Overviews :
// Script de monitoring des citations AI Overview
// Utilise SerpApi pour détecter les AI Overviews et les sources citées
// Croise avec les données Search Console pour mesurer l'impact
import { getJson } from "serpapi";
import { google } from "googleapis";
interface AIOverviewCitation {
query: string;
citedUrl: string;
citedDomain: string;
organicPosition: number | null;
isOwnSite: boolean;
}
async function analyzeAIOverviewCitations(
queries: string[],
targetDomain: string
): Promise<AIOverviewCitation[]> {
const citations: AIOverviewCitation[] = [];
for (const query of queries) {
try {
const result = await getJson({
engine: "google",
q: query,
location: "France",
hl: "fr",
gl: "fr",
api_key: process.env.SERPAPI_KEY,
});
// Extraire les citations de l'AI Overview si présent
const aiOverview = result.ai_overview;
if (!aiOverview?.references) continue;
for (const ref of aiOverview.references) {
const url = new URL(ref.link);
// Trouver la position organique de cette URL
const organicPosition = result.organic_results?.findIndex(
(r: any) => r.link === ref.link
);
citations.push({
query,
citedUrl: ref.link,
citedDomain: url.hostname,
organicPosition: organicPosition !== -1
? organicPosition + 1
: null, // null = pas dans le top 10 organique
isOwnSite: url.hostname.includes(targetDomain),
});
}
// Rate limiting
await new Promise((resolve) => setTimeout(resolve, 2000));
} catch (error) {
console.error(`Erreur pour la requête "${query}":`, error);
}
}
return citations;
}
// Analyse des résultats
async function generateReport(citations: AIOverviewCitation[]) {
const totalCitations = citations.length;
const citationsOutsideTop10 = citations.filter(
(c) => c.organicPosition === null
).length;
const ownSiteCitations = citations.filter((c) => c.isOwnSite).length;
const youtubeCitations = citations.filter((c) =>
c.citedDomain.includes("youtube.com")
).length;
console.log(`Total citations analysées: ${totalCitations}`);
console.log(
`Citations hors top 10: ${citationsOutsideTop10} (${((citationsOutsideTop10 / totalCitations) * 100).toFixed(1)}%)`
);
console.log(
`Citations propres: ${ownSiteCitations} (${((ownSiteCitations / totalCitations) * 100).toFixed(1)}%)`
);
console.log(
`Citations YouTube: ${youtubeCitations} (${((youtubeCitations / totalCitations) * 100).toFixed(1)}%)`
);
}
Ce type de monitoring est critique parce que la Search Console ne vous dit pas si votre page est citée dans un AI Overview. Vous voyez les impressions, mais vous ne savez pas si elles proviennent de la SERP classique, d'un AI Overview, ou d'une fan-out query interne. Le croisement avec un outil de scraping SERP est le seul moyen d'obtenir cette visibilité — même si la légalité du scraping SERP fait encore débat.
Les résultats après 3 mois
Après 3 mois de production orientée long tail technique, TechScope observe :
- +34% de pages citées dans les AI Overviews sur leur cluster thématique smartphone
- -5% de trafic organique sur les requêtes "head" (tendance inchangée, la baisse vient des AI Overviews elles-mêmes)
- +18% de trafic organique sur les requêtes long tail technique
- Bilan net : +11% de trafic organique sur le cluster, malgré l'expansion des AI Overviews
La leçon : la surface de capture se déplace. Lutter pour maintenir sa position sur les requêtes head est nécessaire, mais insuffisant. L'investissement marginal le plus rentable se situe dans la couverture granulaire des sous-sujets.
Les signaux techniques qui influencent la sélection des citations
La fraîcheur du contenu et la date de publication
Les AI Overviews montrent une préférence observable pour les contenus récemment mis à jour, particulièrement sur les sujets évoluant rapidement. Ce n'est pas nouveau en soi — le Query Deserves Freshness est documenté depuis longtemps — mais l'effet semble amplifié dans le contexte des AI Overviews.
Concrètement, si votre article date de 2024 et qu'un concurrent a publié un article similaire en janvier 2026, le système privilégiera le contenu le plus récent pour alimenter sa réponse, même si votre article est mieux classé en organique.
Cela renforce l'importance de maintenir une stratégie de fraîcheur de contenu active, avec des mises à jour régulières des articles stratégiques — pas des modifications cosmétiques, mais des ajouts substantiels de données, d'exemples ou de sections.
Les meta tags comme signal de pertinence
Les meta tags jouent un rôle indirect mais réel dans la sélection des citations AI Overview. Le système s'appuie sur le contenu de la page, pas sur les meta tags elles-mêmes, pour générer la réponse. Mais les meta tags influencent le ranking organique et la compréhension thématique de la page par Google, qui sont les inputs du processus de sélection des sources.
Une page avec un title tag précis et une meta description qui reflète fidèlement le contenu a plus de chances d'être correctement catégorisée par le système de fan-out queries. À l'inverse, un title vague ou trompeur peut exclure une page pertinente de la sélection.
Le SSR et la qualité du HTML servi
Le système d'AI Overview consomme le contenu tel que Googlebot le voit. Si votre site utilise du rendu côté client (CSR) et que certaines sections de contenu ne sont pas rendues au moment du crawl, ces sections n'existent tout simplement pas pour le système de sélection des citations.
C'est un problème particulièrement aigu pour les sites qui utilisent du lazy loading agressif sur le contenu textuel (pas seulement les images). Vérifier ce que Google voit réellement sur vos pages stratégiques n'est plus optionnel — c'est une condition de base pour être éligible aux citations AI Overview.
Le test le plus simple reste l'outil d'inspection d'URL dans la Search Console, mais il a ses limites (il ne montre qu'un snapshot). Pour un monitoring continu, un outil comme SEOGard qui détecte automatiquement les régressions de rendu SSR vous alerte avant que vos pages disparaissent silencieusement du pool de citations.
Les données structurées comme accélérateur de compréhension
Les données structurées n'influencent pas directement le ranking, selon Google. Mais dans le contexte des AI Overviews, elles jouent un rôle d'accélérateur : elles aident le système à comprendre rapidement le type de contenu, son scope, et sa relation avec d'autres entités.
Pour un site e-commerce, le balisage Product, Review, et FAQ fournit des signaux structurés que le système peut utiliser pour sélectionner les sources les plus pertinentes pour des fan-out queries commerciales. Pour un site éditorial, les balisages Article, HowTo, et VideoObject remplissent le même rôle.
Le point important : les données structurées doivent refléter fidèlement le contenu de la page. Un balisage FAQ plaqué artificiellement sur une page qui n'est pas réellement une FAQ peut déclencher une action manuelle, mais surtout, il envoie un signal contradictoire au système qui sélectionne les sources AI Overview.
Adapter sa stratégie SEO technique à l'ère des AI Overviews
Repenser la couverture thématique
L'architecture de contenu doit évoluer vers un modèle de couverture thématique exhaustive. L'objectif n'est plus uniquement de ranker sur les requêtes head, mais de maximiser la probabilité d'être sélectionné comme source sur au moins une des fan-out queries générées par le système.
Cela implique un travail d'analyse des sous-requêtes potentielles. Les outils classiques — People Also Ask, Google Suggest, Screaming Frog en mode SERP crawl — donnent une approximation utile des requêtes dérivées que le système pourrait générer. Mais le meilleur proxy reste l'analyse des requêtes Search Console avec un clustering sémantique :
# Extraction et clustering des requêtes Search Console
# Utilise la commande gsc-tools (https://github.com/nickmoline/gsc-tools)
# puis un clustering via embeddings
# 1. Exporter les données Search Console
gsc-tools query \
--property "https://votre-site.fr" \
--start "2026-01-01" \
--end "2026-03-01" \
--dimensions query,page \
--row-limit 25000 \
--output queries_export.csv
# 2. Filtrer les requêtes avec impressions mais 0 clic
# (proxy pour les requêtes captées par les AI Overviews)
awk -F',' '$4 == 0 && $3 > 50 {print $1","$2","$3}' \
queries_export.csv > zero_click_queries.csv
# 3. Compter les requêtes uniques par page
cut -d',' -f2 zero_click_queries.csv | sort | uniq -c | sort -rn | head -20
Les pages qui accumulent le plus de requêtes zero-click à fort volume d'impressions sont vos meilleures candidates pour un enrichissement de contenu ciblé. Elles sont déjà "vues" par le système — l'objectif est de les rendre suffisamment pertinentes et complètes pour être systématiquement sélectionnées comme source citée.
Monitorer les citations AI Overview en continu
Le défi principal : Google ne fournit aucune donnée sur les citations AI Overview dans la Search Console. Vous ne savez pas si votre page est citée, à quelle fréquence, ni sur quelles requêtes. Ce manque de transparence rend le monitoring externe indispensable.
Le scraping SERP régulier sur vos requêtes stratégiques, croisé avec vos données de ranking et de trafic, est la seule façon d'obtenir une vision complète. Planifiez un audit hebdomadaire sur vos 100 requêtes les plus stratégiques et tracez l'évolution du taux de citation dans les AI Overviews.
Diversifier les formats de contenu
La présence croissante de YouTube dans les citations AI Overview est un signal clair : le texte seul ne suffit plus. Les sites qui combinent contenu textuel approfondi, vidéo YouTube avec transcription optimisée, et données structurées complètes maximisent leur surface de capture dans les AI Overviews.
Ce n'est pas un appel à "faire de la vidéo pour faire de la vidéo". C'est un constat technique : le système de sélection des sources pioche dans un pool qui inclut YouTube. Si vous n'y êtes pas, vous laissez ce canal à vos concurrents — ou à des créateurs tiers qui parlent de vos produits avec des informations potentiellement inexactes.
Implications pour l'optimisation assistée par IA
L'émergence des AI Overviews comme canal de trafic (et de non-trafic) pousse à repenser la relation entre le SEO technique classique et ce qu'on commence à appeler l'Assistive Agent Optimization. Les deux disciplines ne sont pas opposées — elles sont complémentaires.
Le SEO technique garantit que vos pages sont correctement crawlées, rendues, indexées, et comprises par Google. C'est la condition nécessaire. L'optimisation pour les agents IA (dont les AI Overviews sont une première manifestation) garantit que votre contenu est sélectionné comme source fiable quand le système synthétise une réponse.
Les données récentes sur l'expansion des AI Overviews dans 9 industries confirment que cette tendance n'est pas un phénomène isolé. C'est une transformation structurelle de la SERP qui touche progressivement tous les secteurs.
Ce qu'il faut retenir
La chute des citations AI Overview provenant du top 10 n'est pas une anomalie — c'est le résultat logique d'un système qui décompose les requêtes en sous-requêtes spécifiques et pioche ses sources dans un pool beaucoup plus large que la première page de résultats. Les sites qui investissent dans la couverture thématique granulaire, la qualité technique du rendu HTML, et la diversification des formats (incluant YouTube avec transcriptions optimisées) se positionnent pour capter cette nouvelle forme de visibilité. Un monitoring continu des citations — via des outils de scraping SERP ou une plateforme de surveillance comme SEOGard — est devenu indispensable pour piloter cette transition sans naviguer à l'aveugle.