Google vient d'étendre les surfaces de liens dans AI Overviews et AI Mode — liens inline dans les réponses générées, citations en sidebar, liens "en savoir plus" en bas de réponse. Côté reporting : rien. Toujours aucune ligne dédiée dans Search Console pour distinguer un clic provenant d'une AI Overview d'un clic organique classique. Les éditeurs naviguent à l'aveugle dans un paysage de recherche qui se transforme sous leurs pieds.
Ce que Google a réellement changé dans les surfaces de liens AI
La mise à jour de mai 2026 ajoute trois types de liens supplémentaires dans les expériences de recherche assistées par IA :
- Liens inline contextuels : intégrés directement dans le texte généré par l'IA, similaires à des liens hypertextes classiques mais insérés par le modèle lors de la génération de la réponse.
- Liens de source élargie : la section "Sources" sous les AI Overviews inclut désormais plus de domaines, avec des aperçus plus riches (favicon + titre + snippet court).
- Liens d'exploration dans AI Mode : dans la version complète d'AI Mode (anciennement SGE), des blocs "Explorer ce sujet" renvoient vers des pages de contenu long format.
Ce qui est important pour les SEOs techniques : ces liens ne sont pas déterministes. Contrairement aux résultats organiques classiques dont le positionnement est relativement stable pour une requête donnée, les liens dans les AI Overviews varient selon le contexte de la session, la reformulation interne du prompt par le modèle, et potentiellement l'historique de l'utilisateur. Deux recherches identiques espacées de 30 secondes peuvent afficher des sources différentes.
Ce comportement non-déterministe rend le tracking traditionnel basé sur les positions quasi-obsolète pour ces surfaces. Et c'est précisément là que l'absence de données dans Search Console devient un problème structurel, pas simplement un manque de fonctionnalité. Nous avons déjà couvert cette expansion des liens AI et les premières implications pour les SEOs, mais la situation de mai 2026 amplifie le problème.
Le trou noir des données : ce que Search Console ne montre pas
Depuis le lancement des AI Overviews, Google classe les clics provenant de ces surfaces dans la même catégorie "Web" que les clics organiques classiques dans Search Console. Pas de filtre, pas de dimension, pas de propriété dédiée.
Concrètement, pour un média tech qui reçoit 200K clics organiques par mois, il est impossible de savoir combien proviennent d'un snippet classique position 3 et combien d'un lien de citation dans une AI Overview. La conséquence directe : toute analyse de performance SEO qui repose sur les données Search Console mélange deux comportements utilisateur fondamentalement différents.
Ce que l'API Search Console expose réellement
Vérifions ce qui est disponible via l'API pour être précis :
# Requête vers l'API Search Console pour analyser les dimensions disponibles
# Documentation : https://developers.google.com/webmaster-tools/v1/searchanalytics/query
import requests
import json
endpoint = "https://www.googleapis.com/webmasters/v3/sites/https%3A%2F%2Fvotre-site.fr/searchAnalytics/query"
payload = {
"startDate": "2026-04-01",
"endDate": "2026-05-10",
"dimensions": ["query", "page", "searchAppearance"],
"type": "web",
"rowLimit": 1000
}
headers = {
"Authorization": "Bearer YOUR_ACCESS_TOKEN",
"Content-Type": "application/json"
}
response = requests.post(endpoint, headers=headers, data=json.dumps(payload))
data = response.json()
# Filtrer les searchAppearance disponibles
appearances = set()
for row in data.get("rows", []):
for key in row.get("keys", []):
if key in row["keys"][2:]: # Troisième dimension = searchAppearance
appearances.add(key)
print("Search Appearances disponibles :", appearances)
# Résultat typique : {'AMP_BLUE_LINK', 'RICHCARD', 'VIDEO', 'WEB_LIGHT', ...}
# Aucune valeur type 'AI_OVERVIEW' ou 'AI_MODE' n'apparaît
La dimension searchAppearance ne contient aucune valeur relative aux AI Overviews. Les valeurs disponibles couvrent les rich results (FAQ, HowTo — bien que les FAQ aient été retirées), les AMP, les vidéos, mais rien pour les surfaces IA. Google a corrigé un bug de logging dans Search Console récemment, mais le problème fondamental de segmentation des données IA reste entier.
L'impact sur la prise de décision
Sans segmentation, trois scénarios courants deviennent impossibles à diagnostiquer :
-
Cannibalisation par l'IA : votre page perd 40% de ses clics organiques classiques mais gagne des clics via AI Overview. Bilan net dans Search Console : baisse de 15%. Vous optimisez dans la mauvaise direction.
-
Faux positif de performance : un contenu médiocre est cité dans une AI Overview pendant 2 semaines (le modèle l'a trouvé pertinent pour une reformulation spécifique). Les clics montent. Vous pensez que vos optimisations on-page fonctionnent. En réalité, la citation disparaît au prochain refresh du modèle et les clics s'effondrent.
-
Attribution de revenus : un e-commerce de 12K pages constate que le trafic organique global reste stable mois après mois. Mais le mix a changé : moins de clics haute intention depuis les SERPs classiques, plus de clics exploratoires depuis les AI Overviews. Le taux de conversion chute sans que le volume de sessions ne l'explique.
Mesurer l'invisible : approches techniques de contournement
En l'absence de données officielles, les SEOs techniques doivent construire leurs propres systèmes de mesure. Voici les approches qui fonctionnent réellement en production.
Détection côté serveur via le referrer et les paramètres d'URL
Les clics depuis les AI Overviews arrivent avec un referrer Google standard, mais certains patterns dans l'URL de landing ou dans les headers HTTP peuvent fournir des indices. Le paramètre ved (View Encrypted Data) encodé dans les URLs de clic Google contient des informations sur la surface d'origine.
# Configuration Nginx pour logger les paramètres de referrer détaillés
# Ajout d'un format de log personnalisé dans nginx.conf
log_format seo_tracking '$remote_addr - $remote_user [$time_local] '
'"$request" $status $body_bytes_sent '
'"$http_referer" "$http_user_agent" '
'"$arg_ved" "$arg_uact" "$arg_source"';
server {
listen 443 ssl;
server_name www.votre-ecommerce.fr;
access_log /var/log/nginx/seo_tracking.log seo_tracking;
location / {
# Capturer les query strings Google pour analyse ultérieure
if ($arg_ved ~* "^[a-zA-Z0-9_-]+$") {
set $ved_value $arg_ved;
}
# Header personnalisé pour le tracking interne
add_header X-Search-Surface $ved_value always;
proxy_pass http://backend;
}
}
Le paramètre ved est un blob encodé en base64 qui contient la position et le type de résultat. Son décodage n'est pas documenté officiellement par Google, mais des travaux de reverse engineering (notamment par Valentin Pletzer) ont montré que certaines structures correspondent à des types de résultats spécifiques. Les clics depuis les AI Overviews utilisent des structures ved distinctes des clics organiques classiques.
Tracking JavaScript côté client
Une approche complémentaire consiste à détecter les patterns de navigation typiques des clics AI Overview côté client :
// Module de détection de surface de recherche AI
// À intégrer dans votre analytics pipeline (GTM, Segment, ou custom)
interface SearchSurfaceData {
surface: 'organic_classic' | 'ai_overview' | 'ai_mode' | 'unknown';
confidence: number;
referrer: string;
vedParam: string | null;
landingPath: string;
timestamp: number;
}
function detectAISearchSurface(): SearchSurfaceData {
const urlParams = new URLSearchParams(window.location.search);
const vedParam = urlParams.get('ved');
const referrer = document.referrer;
let surface: SearchSurfaceData['surface'] = 'unknown';
let confidence = 0;
// Vérification basique : le clic vient-il de Google ?
const isGoogleReferrer = /^https:\/\/(www\.)?google\.[a-z.]+\//.test(referrer);
if (!isGoogleReferrer) {
return {
surface: 'unknown',
confidence: 0,
referrer,
vedParam,
landingPath: window.location.pathname,
timestamp: Date.now()
};
}
// Heuristique basée sur le paramètre ved
// Les AI Overviews utilisent des structures ved plus longues
// avec des patterns spécifiques (observé empiriquement)
if (vedParam) {
const vedLength = vedParam.length;
// Les clics AI Overview ont tendance à avoir des ved plus longs
// en raison de la structure de citation imbriquée
if (vedLength > 80) {
surface = 'ai_overview';
confidence = 0.6;
}
// Pattern spécifique observé pour AI Mode (2026)
// Le ved contient un segment encodé commençant par certains octets
try {
const decoded = atob(vedParam.replace(/-/g, '+').replace(/_/g, '/'));
// Octet de type à la position 2 (empirique, non documenté)
if (decoded.charCodeAt(2) === 0x1A || decoded.charCodeAt(2) === 0x22) {
surface = 'ai_mode';
confidence = 0.7;
}
} catch (e) {
// Le décodage base64 peut échouer sur certains formats ved
}
}
// Signal complémentaire : absence de paramètre "ei" (experiment ID)
// Les clics AI Overview récents omettent parfois ce paramètre
const eiParam = urlParams.get('ei');
if (!eiParam && surface === 'ai_overview') {
confidence += 0.1;
}
// Fallback : si on ne peut pas déterminer, c'est du classique
if (surface === 'unknown' && isGoogleReferrer) {
surface = 'organic_classic';
confidence = 0.5;
}
const result: SearchSurfaceData = {
surface,
confidence,
referrer,
vedParam,
landingPath: window.location.pathname,
timestamp: Date.now()
};
// Envoi vers votre pipeline analytics
if (typeof window.dataLayer !== 'undefined') {
window.dataLayer.push({
event: 'search_surface_detected',
...result
});
}
return result;
}
// Exécution au chargement de la page
if (document.readyState === 'loading') {
document.addEventListener('DOMContentLoaded', detectAISearchSurface);
} else {
detectAISearchSurface();
}
Caveat important : cette approche est heuristique. Le taux de fiabilité observé en production se situe entre 55% et 75% selon les études internes que des équipes SEO partagent dans des communautés comme Women in Tech SEO et SEO Mastery. Google peut modifier la structure des paramètres ved à tout moment. C'est un outil de tendance, pas de mesure exacte.
Scénario concret : un média tech de 8 000 pages face au trou noir
Prenons le cas d'un média technologique B2B (type JournalDuNet ou ZDNet mais en plus petit) avec 8 000 articles indexés, 450K sessions organiques mensuelles, et un modèle de revenus basé sur la pub programmatique (RPM moyen de 12€).
La situation avant AI Overviews (T1 2025)
- 450K sessions organiques / mois
- 78% du trafic depuis Google Search
- Revenu programmatique mensuel : ~4 200€
- Top 50 articles (type "guides") génèrent 35% du trafic total
- Search Console montre des données granulaires par page, query, device
La situation actuelle (T2 2026)
- Sessions organiques apparentes dans Search Console : 440K / mois (-2.2%)
- Mais le revenu programmatique a chuté à ~3 100€ (-26%)
- Le temps moyen par session a baissé de 2min 40s à 1min 50s
L'explication probable : une portion significative des sessions vient désormais de clics dans les AI Overviews. Ces utilisateurs ont déjà lu une synthèse de la réponse. Ils arrivent sur la page pour "vérifier" ou compléter une information spécifique, pas pour lire l'article entier. Le temps passé chute, le nombre de pages vues par session chute, le scroll depth chute — et avec eux, le RPM publicitaire effectif.
Mais dans Search Console, ces sessions sont indiscernables des sessions organiques classiques. Le responsable SEO voit un trafic quasi-stable et ne comprend pas la chute de revenus. Le CFO commence à poser des questions.
Le diagnostic technique
L'équipe SEO met en place le tracking ved décrit plus haut et analyse 30 jours de données. Résultat :
- ~18% des sessions identifiées avec un confidence > 0.6 comme provenant d'AI Overviews
- Ces sessions ont un taux de rebond de 72% (vs 45% pour les organiques classiques)
- Le temps moyen sur page : 48 secondes (vs 2min 10s)
- Les pages les plus impactées : les 50 guides qui concentraient le trafic — exactement le type de contenu long format que les AI Overviews synthétisent le mieux
La réponse stratégique
Plutôt que de combattre les AI Overviews (impossible), l'équipe restructure sa stratégie :
-
Contenu à haute valeur ajoutée non-résumable : les données propriétaires, benchmarks exclusifs, et interviews d'experts deviennent la priorité éditoriale. Un modèle IA peut résumer "les 10 meilleures pratiques de sécurité API" mais ne peut pas inventer un benchmark comparatif basé sur des tests réels.
-
Optimisation pour la citation plutôt que le clic : travailler la structure sémantique pour être cité dans les AI Overviews (stratégie détaillée ici) même si le clic ne vient pas.
-
Diversification des sources de trafic : la dépendance à Google Search passe de 78% à un objectif de 55%, avec un investissement dans la newsletter et les réseaux.
-
Monitoring continu des citations IA : un outil de monitoring comme Seogard permet de détecter quand une page apparaît ou disparaît des AI Overviews, même sans données Search Console, en scannant les SERPs à intervalles réguliers.
Les études de CTR : ce que les données disponibles montrent
Plusieurs études indépendantes ont analysé l'impact des AI Overviews sur les taux de clics. Les résultats convergent, même si les méthodologies varient.
Observations recoupées
L'étude la plus citée reste celle de Seer Interactive (mise à jour en 2026) qui analyse les données de clickstream sur un panel de requêtes informationnelles. La tendance observée : quand une AI Overview apparaît, le CTR agrégé des résultats organiques sous la réponse IA diminue. Ce n'est pas surprenant — une réponse complète affichée directement dans la SERP réduit mécaniquement le besoin de cliquer.
Ce qui est plus nuancé et moins discuté : l'impact varie massivement selon le type de requête.
-
Requêtes factuelles simples ("hauteur tour Eiffel", "date création SARL") : impact maximal. La réponse IA est complète, le clic devient inutile. Mais ces requêtes généraient déjà peu de trafic qualifié.
-
Requêtes transactionnelles ("acheter matelas 160x200 ferme") : impact modéré. L'IA fournit une synthèse mais l'intention d'achat pousse l'utilisateur à visiter les sites. Les liens produits dans les AI Overviews captent en revanche une part du trafic qui allait auparavant aux résultats organiques position 3-10.
-
Requêtes complexes / multi-étapes ("migrer infrastructure on-premise vers Kubernetes") : impact faible voire positif. La réponse IA est partielle, l'utilisateur a besoin de profondeur, et les liens de citation dans l'AI Overview servent de "pré-sélection" qui peut augmenter le CTR des pages citées.
Le problème pour les éditeurs n'est donc pas uniforme. Et c'est précisément pourquoi l'absence de segmentation dans Search Console est si dommageable : sans savoir quel type de trafic vous perdez, vous ne pouvez pas adapter votre stratégie de contenu. Si vous perdez du trafic factuel à faible valeur, l'impact business est minime. Si vous perdez du trafic transactionnel, c'est une urgence revenue.
Diagnostic avec les données dont vous disposez
En l'absence de segmentation AI dans Search Console, croisez les données GSC avec Google Analytics 4 pour déduire les tendances :
# Extraction BigQuery des données GA4 croisées avec GSC
# Prérequis : export GA4 vers BigQuery activé + API GSC
bq query --use_legacy_sql=false '
SELECT
gsc.query,
gsc.page,
gsc.clicks AS gsc_clicks,
gsc.impressions AS gsc_impressions,
ga.sessions,
ga.engaged_sessions,
ga.avg_session_duration,
SAFE_DIVIDE(ga.engaged_sessions, ga.sessions) AS engagement_rate,
SAFE_DIVIDE(gsc.clicks, ga.sessions) AS click_to_session_ratio
FROM
`votre-projet.search_console.searchdata_url_impression` gsc
JOIN (
SELECT
-- Extraction du landing page path
(SELECT value.string_value FROM UNNEST(event_params)
WHERE key = "page_location") AS page,
COUNT(DISTINCT (SELECT value.int_value FROM UNNEST(event_params)
WHERE key = "ga_session_id")) AS sessions,
COUNT(DISTINCT CASE
WHEN (SELECT value.string_value FROM UNNEST(event_params)
WHERE key = "session_engaged") = "1"
THEN (SELECT value.int_value FROM UNNEST(event_params)
WHERE key = "ga_session_id")
END) AS engaged_sessions,
AVG((SELECT value.int_value FROM UNNEST(event_params)
WHERE key = "engagement_time_msec")) / 1000 AS avg_session_duration
FROM
`votre-projet.analytics_XXXXXX.events_*`
WHERE
_TABLE_SUFFIX BETWEEN "20260401" AND "20260510"
AND event_name = "session_start"
AND traffic_source.source = "google"
AND traffic_source.medium = "organic"
GROUP BY page
) ga
ON gsc.page = ga.page
WHERE
gsc.data_date BETWEEN "2026-04-01" AND "2026-05-10"
AND click_to_session_ratio < 0.7 -- Anomalie : sessions > clics GSC
ORDER BY
gsc.clicks DESC
LIMIT 100
'
Les pages où le ratio click_to_session_ratio est anormalement bas (sessions GA4 nettement supérieures aux clics GSC) méritent investigation. Cet écart peut indiquer du trafic provenant de surfaces non trackées dans GSC — potentiellement les AI Overviews — ou simplement des problèmes de sampling. Mais en tendance sur 30 jours, les patterns émergents sont exploitables.
Préparer votre stack technique pour l'ère post-click-data
L'absence de données de clics AI dans Search Console n'est probablement pas temporaire. Google n'a aucun incitatif à fournir ces données : elles montreraient l'ampleur de la cannibalisation du trafic éditeur par les réponses générées. Il faut construire votre infrastructure de mesure en partant du principe que ces données ne viendront pas.
Structurer vos données pour la citation IA
Les modèles IA qui alimentent les AI Overviews extraient l'information à partir du contenu indexé. La structuration de vos données influence directement votre probabilité d'être cité. L'approche sémantique programmatique est particulièrement pertinente ici.
Au-delà du balisage Schema.org classique, les signaux qui semblent favoriser la citation dans les AI Overviews incluent :
- Données structurées imbriquées avec des relations claires entre entités (pas juste un
Articleisolé mais unArticleavecauthor→Personavecaffiliation→Organization) - Sections clairement identifiées avec des headings qui correspondent aux sous-questions typiques d'un utilisateur
- Sources citées dans le contenu : les pages qui citent elles-mêmes des sources fiables sont plus souvent citées par l'IA (le modèle peut vérifier la cohérence factuelle)
L'enjeu n'est plus seulement d'être visible dans la recherche IA mais de comprendre pourquoi l'IA ignore certains contenus et d'agir sur les bons leviers.
Monitorer ce que Google ne montre pas
Les outils classiques (Screaming Frog, Ahrefs, SEMrush) sont conçus pour le SEO traditionnel. Ils crawlent, analysent les backlinks, trackent les positions. Mais aucun d'entre eux ne répond nativement à la question : "Ma page est-elle citée dans l'AI Overview pour la requête X aujourd'hui ?"
Les approches de monitoring doivent évoluer :
-
SERP scraping ciblé : automatiser des checks quotidiens sur vos 100-200 requêtes prioritaires pour détecter la présence/absence d'AI Overviews et vos citations dans celles-ci. Attention aux ToS Google.
-
Log analysis des bots IA : Google utilise des user-agents spécifiques pour l'indexation des contenus alimentant ses modèles IA. Le monitoring des logs serveur permet de détecter le crawl par des bots IA, y compris ceux de Bing/Microsoft.
-
Alerting sur les anomalies de trafic : un système qui détecte une chute de 20% du trafic sur une page spécifique en 48h est plus utile qu'un rapport mensuel. C'est le type de détection instantanée que Seogard apporte — savoir en temps réel qu'une page clé vient de perdre sa citation IA ou qu'un changement technique a cassé le rendu SSR qui alimentait l'IA.
L'enjeu du rendu JavaScript
Un point technique souvent négligé : les AI Overviews s'appuient sur le contenu indexé par Google. Si votre site utilise du rendu côté client (SPA React, Vue, Angular) et que Googlebot ne rend pas correctement vos pages, vous ne serez jamais cité dans les AI Overviews, même avec le meilleur contenu du monde.
Les leçons JavaScript SEO issues du e-commerce sont d'autant plus critiques dans le contexte IA. Un contenu qui n'est pas accessible au crawl ne peut pas alimenter le modèle. Et un WordPress managé qui bloque les bots IA à votre insu élimine silencieusement toute possibilité de citation.
Le paradoxe stratégique : optimiser pour un système opaque
Google demande aux développeurs de construire pour les agents IA tout en refusant de fournir les métriques qui permettraient de mesurer le succès de cette construction. C'est un paradoxe qui structure désormais l'ensemble de la relation entre Google et les éditeurs.
Les implications pratiques :
Pour les sites à forte dépendance au trafic informationnel : le modèle économique basé sur les impressions publicitaires est structurellement menacé. Les AI Overviews répondent à la question sans envoyer l'utilisateur sur le site. Diversifier les revenus (abonnements, leads, affiliation avec contenu non-résumable) n'est plus optionnel.
Pour les e-commerces : l'impact est plus nuancé. Les requêtes transactionnelles génèrent encore des clics, et les liens produits dans les AI Overviews peuvent même être un nouveau vecteur de trafic. Mais mesurer la performance de ce canal sans données est un exercice de devinette.
Pour les SaaS B2B : le contenu thought leadership long format reste pertinent car les requêtes complexes B2B dépassent la capacité de synthèse des AI Overviews. En revanche, les pages de type "What is X" qui servaient de top-of-funnel sont les premières victimes.
Le tracker de visibilité IA peut lui-même introduire des biais si vous ne comprenez pas ses limites. Et les résultats des core updates récentes, qui ont redistribué la visibilité loin des agrégateurs, compliquent encore la lecture : ce qui change dans votre trafic est-il dû à l'IA, à un core update, ou aux deux simultanément ?
La position de Google et ce qu'elle révèle
Google a publié plusieurs communications affirmant que les AI Overviews "envoient du trafic vers les éditeurs" et que les clics sur les liens de citation ont un "engagement plus élevé" que les clics organiques classiques. Ces affirmations ne sont pas accompagnées de données publiques vérifiables.
Ce qui est vérifiable : la documentation officielle de Google Search Central sur les AI Overviews ne mentionne aucun mécanisme de reporting spécifique pour les éditeurs. La documentation de l'API Search Console ne liste aucune valeur searchAppearance liée aux AI Overviews. Et les Web Vitals restent les métriques promues par Google, alors qu'elles ne capturent pas l'impact de l'IA sur le parcours utilisateur.
L'absence de données n'est pas un bug. C'est une décision produit. Et les SEOs doivent construire leur stratégie en conséquence.
L'expansion des surfaces de liens dans AI Search est une bonne nouvelle pour la visibilité potentielle. L'absence persistante de données de clics est un problème systémique qui force les équipes SEO à construire leurs propres systèmes de mesure, accepter une marge d'incertitude significative, et repenser leurs KPIs. Le monitoring continu et automatisé des citations IA, des changements de SERP, et des anomalies de trafic n'est plus un luxe — c'est l'infrastructure minimale pour prendre des décisions SEO éclairées en 2026.