Seer Interactive vient de publier une analyse qui va alimenter les discussions en comité SEO pendant des semaines : le CTR des pages citées dans les AI Overviews de Google a chuté de 61%. Pourtant, le volume absolu de clics n'a pas implosé. La raison est mécanique : les impressions ont explosé bien plus vite que les clics n'ont reculé. Ce paradoxe statistique cache un changement structurel de la SERP que la plupart des dashboards SEO actuels ne capturent pas.
Le mécanisme derrière la chute de 61% du CTR
Pour comprendre pourquoi un CTR peut chuter de 61% sans effondrement du trafic, il faut poser les mathématiques. Le CTR est un ratio : clics / impressions. Si les impressions triplent et que les clics augmentent de 17%, le CTR s'écroule mécaniquement — même si vous recevez plus de visiteurs qu'avant.
Prenons un scénario concret. Un site e-commerce spécialisé en matériel de randonnée, 8 000 pages produit indexées, qui se retrouve cité dans les AI Overviews sur une partie croissante de ses requêtes informationnelles.
Les chiffres avant / après
Période T1 (avant expansion AI Overviews) :
- Requêtes déclenchant un AI Overview citant le site : 2 400
- Impressions totales sur ces requêtes : 180 000/mois
- Clics : 14 400/mois
- CTR moyen : 8,0%
Période T2 (après expansion) :
- Requêtes déclenchant un AI Overview citant le site : 9 600 (+300%)
- Impressions totales : 720 000/mois (+300%)
- Clics : 22 320/mois (+55%)
- CTR moyen : 3,1% (-61%)
Le volume de clics a augmenté de 55%. Le CTR a chuté de 61%. Les deux sont vrais simultanément. C'est exactement ce que Seer Interactive observe à l'échelle de son panel.
Pourquoi les impressions explosent plus vite
Google déploie les AI Overviews sur un spectre de requêtes de plus en plus large. D'après les données de Google Search Central, les AI Overviews apparaissent désormais sur des requêtes qui n'en déclenchaient pas six mois plus tôt — notamment les requêtes transactionnelles et les requêtes à faible ambiguïté. Chaque nouvelle requête couverte génère des impressions pour les sites cités, mais le taux de clic sur ces nouvelles requêtes est structurellement plus bas : l'utilisateur obtient souvent sa réponse directement dans l'overview.
Le piège cognitif est de regarder uniquement le CTR ou uniquement le volume de clics. Les deux métriques isolées racontent une histoire incomplète. La métrique qui compte réellement est le share of clicks : sur l'ensemble des clics générés par une requête donnée, quelle part atterrit sur votre site versus vos concurrents et versus zéro-clic.
Mesurer l'impact réel dans Search Console : au-delà du CTR moyen
La Search Console ne distingue pas nativement les impressions provenant d'un AI Overview de celles d'un résultat organique classique. C'est un problème majeur pour l'analyse. Mais il existe des techniques pour isoler le signal.
Segmentation par type de requête
La première approche consiste à créer des segments de requêtes dans Search Console en fonction de leur probabilité de déclencher un AI Overview. Vous pouvez automatiser cette classification avec l'API Search Console et un script de catégorisation.
# Extraction Search Console + classification AI Overview probability
# Utilise google-searchconsole (pip install google-searchconsole)
import searchconsole
import pandas as pd
account = searchconsole.authenticate(
client_config='credentials.json',
serialize='token.json'
)
webproperty = account['https://www.votresite-rando.fr/']
# Extraction sur 90 jours
report = webproperty.query.range('2026-01-25', '2026-04-25') \
.dimension('query', 'page') \
.get()
df = pd.DataFrame(report.rows)
# Heuristique : requêtes informationnelles longues = forte probabilité AI Overview
df['query_word_count'] = df['query'].str.split().str.len()
df['likely_aio'] = (
(df['query_word_count'] >= 4) &
(df['query'].str.contains(
'comment|pourquoi|meilleur|comparatif|différence|quel',
case=False, regex=True
))
)
# Comparaison CTR entre segments
aio_segment = df[df['likely_aio'] == True]
classic_segment = df[df['likely_aio'] == False]
print(f"CTR moyen segment AI Overview probable : {aio_segment['ctr'].mean():.2%}")
print(f"CTR moyen segment classique : {classic_segment['ctr'].mean():.2%}")
print(f"Clics totaux AIO : {aio_segment['clicks'].sum():,.0f}")
print(f"Clics totaux classique : {classic_segment['clicks'].sum():,.0f}")
Cette heuristique n'est pas parfaite — elle ne remplace pas une vérification manuelle ou l'utilisation d'un outil comme Semrush ou Ahrefs qui taggent les SERP features. Mais elle suffit à révéler l'écart de CTR entre les deux segments et à suivre son évolution semaine après semaine.
Le piège de l'agrégation
Un Lead SEO qui regarde le CTR global de son site dans Search Console ne verra rien de dramatique si les AI Overviews drainent surtout des requêtes informationnelles à forte volumétrie mais faible conversion. Le CTR global peut même rester stable si les requêtes transactionnelles (plus courtes, moins touchées par les AI Overviews) maintiennent leur performance.
C'est exactement le scénario que décrit l'étude de Seer Interactive : les clics ne s'effondrent pas en agrégé, mais la distribution des clics se déplace. Les requêtes informationnelles mid-funnel — celles qui alimentent la notoriété et la considération — voient leur CTR s'éroder silencieusement. L'impact sur le pipeline commercial se manifeste avec un décalage de 3 à 6 mois.
Adapter votre stratégie de contenu au nouveau ratio impression/clic
Le réflexe classique face à une baisse de CTR est d'optimiser les titles et les meta descriptions. Ici, c'est largement inutile : le CTR chute parce que l'utilisateur consomme la réponse dans l'AI Overview sans cliquer, pas parce que votre snippet est mal rédigé.
Stratégie 1 : cibler le format de citation plutôt que le clic
Quand Google cite votre site dans un AI Overview, votre marque apparaît dans l'espace le plus visible de la SERP, même sans clic. Cette visibilité de marque a une valeur — c'est l'argument central de la Generative Engine Optimization (GEO).
Pour maximiser la qualité de cette citation, structurez votre contenu de manière à ce que l'AI Overview extraie des passages qui incluent votre nom de marque, votre expertise différenciante ou un data point propriétaire.
<!-- Structure optimisée pour citation AI Overview avec brand mention -->
<article itemscope itemtype="https://schema.org/TechArticle">
<h1>Chaussures de randonnée Gore-Tex : guide comparatif 2026</h1>
<!-- Le paragraphe de synthèse est le plus susceptible d'être extrait -->
<p class="summary" itemprop="abstract">
Après 14 mois de tests terrain par l'équipe RandoExpert sur 23 modèles,
la Salomon X Ultra 5 GTX domine en polyvalence avec un score
durabilité/confort de 8.7/10. Les modèles Merrell MQM 3 et
Hoka Anacapa offrent des alternatives selon le profil de randonneur.
</p>
<!-- Données structurées pour renforcer l'attribution -->
<div itemprop="author" itemscope itemtype="https://schema.org/Organization">
<meta itemprop="name" content="RandoExpert" />
<meta itemprop="url" content="https://www.randoexpert.fr" />
</div>
<!-- Table de comparaison — format privilégié par les AI Overviews -->
<table>
<thead>
<tr>
<th>Modèle</th>
<th>Score terrain (RandoExpert)</th>
<th>Prix</th>
<th>Usage optimal</th>
</tr>
</thead>
<tbody>
<tr>
<td>Salomon X Ultra 5 GTX</td>
<td>8.7/10</td>
<td>189€</td>
<td>Polyvalent montagne</td>
</tr>
<tr>
<td>Merrell MQM 3 GTX</td>
<td>8.2/10</td>
<td>159€</td>
<td>Fast hiking</td>
</tr>
</tbody>
</table>
</article>
L'intégration du nom de marque ("RandoExpert") directement dans le paragraphe de synthèse et dans les attributs du tableau augmente la probabilité que la citation dans l'AI Overview inclue une mention identifiable. C'est une stratégie de réputation plus que de trafic, mais elle correspond à la réalité de ce nouveau format SERP.
Stratégie 2 : protéger les requêtes à forte valeur de conversion
Toutes les requêtes ne méritent pas le même investissement. Si votre CTR baisse de 61% sur "comment choisir des chaussures de randonnée" mais reste stable sur "salomon x ultra 5 gtx prix", l'impact business est contenu. La priorité est de segmenter votre portefeuille de requêtes par valeur de conversion et de concentrer vos efforts de défense de CTR sur le segment transactionnel.
Utilisez les données de conversion de Google Analytics 4 croisées avec Search Console pour identifier les requêtes où une baisse de CTR aurait un impact direct sur le chiffre d'affaires. Ce sont celles-là qu'il faut monitorer en priorité.
Monitoring en continu : détecter l'érosion avant qu'elle ne devienne visible
Le problème fondamental avec les AI Overviews est la latence de détection. Le CTR se dégrade progressivement, requête par requête, au fur et à mesure que Google étend la couverture des AI Overviews. Quand vous le voyez dans vos rapports mensuels, l'érosion dure depuis des semaines.
Configuration d'alertes dans Search Console via l'API
# Script de monitoring hebdomadaire — détection de dégradation CTR par cluster
import searchconsole
import pandas as pd
from datetime import datetime, timedelta
import smtplib
from email.mime.text import MIMEText
def detect_ctr_degradation(webproperty, threshold=-0.15):
"""
Compare le CTR des 7 derniers jours vs les 7 jours précédents
par cluster de requêtes. Alerte si dégradation > threshold.
"""
today = datetime.now().date()
# Période courante
current = webproperty.query \
.range(today - timedelta(days=7), today - timedelta(days=1)) \
.dimension('query') \
.get()
# Période précédente
previous = webproperty.query \
.range(today - timedelta(days=14), today - timedelta(days=8)) \
.dimension('query') \
.get()
df_current = pd.DataFrame(current.rows).rename(
columns={'ctr': 'ctr_current', 'clicks': 'clicks_current',
'impressions': 'imp_current'}
)
df_previous = pd.DataFrame(previous.rows).rename(
columns={'ctr': 'ctr_previous', 'clicks': 'clicks_previous',
'impressions': 'imp_previous'}
)
merged = df_current.merge(df_previous, on='query', how='inner')
# Filtrer les requêtes avec volume significatif
merged = merged[merged['imp_current'] > 50]
# Calculer la variation relative du CTR
merged['ctr_change'] = (
(merged['ctr_current'] - merged['ctr_previous'])
/ merged['ctr_previous']
)
# Identifier les requêtes à forte dégradation
# MAIS avec impressions en hausse (signature AI Overview)
aio_signature = merged[
(merged['ctr_change'] < threshold) &
(merged['imp_current'] > merged['imp_previous'] * 1.3)
]
return aio_signature.sort_values('ctr_change')
# Exécution
account = searchconsole.authenticate(
client_config='credentials.json',
serialize='token.json'
)
wp = account['https://www.votresite-rando.fr/']
alerts = detect_ctr_degradation(wp, threshold=-0.20)
if len(alerts) > 0:
report = f"⚠ {len(alerts)} requêtes avec signature AI Overview détectée\n\n"
report += alerts[['query', 'ctr_previous', 'ctr_current',
'ctr_change', 'imp_current']].to_string()
print(report)
# Envoi email ou webhook Slack ici
Ce script détecte une signature spécifique : CTR en baisse significative combiné à des impressions en hausse de 30%+. C'est la signature caractéristique d'une requête qui vient d'être couverte par un AI Overview. Une baisse de CTR avec des impressions stables ou en baisse pointe vers un autre problème (perte de position, changement de SERP feature classique).
Un outil de monitoring comme Seogard automatise ce type de détection en continu et envoie des alertes dès qu'un pattern de dégradation AI Overview est identifié sur vos requêtes stratégiques — sans nécessiter de maintenir un script custom.
Ce que Screaming Frog ne voit pas
L'analyse côté crawl (Screaming Frog, Sitebulb) reste essentielle pour les fondamentaux techniques, mais elle est aveugle au phénomène décrit ici. La dégradation du CTR liée aux AI Overviews ne laisse aucune trace dans le HTML de vos pages. Vos titles sont intacts, vos canonical sont corrects, votre maillage interne fonctionne. Le problème se situe entièrement côté SERP.
C'est pourquoi le monitoring doit combiner deux couches : l'audit technique on-site (crawl, rendering, structured data) et le suivi des métriques SERP (CTR par cluster, distribution des SERP features, taux de citation AI Overview). Les équipes qui ne surveillent que la première couche découvriront le problème avec des mois de retard.
L'angle mort des rapports SEO actuels
L'étude de Seer Interactive met en lumière un défaut structurel dans la façon dont la plupart des équipes SEO reportent leur performance. Le KPI dominant reste le trafic organique, parfois décomposé en impressions et clics. Mais ce framework ne capture pas la valeur d'une citation sans clic dans un AI Overview.
Le problème du "ghost traffic"
Quand un utilisateur tape "meilleure tente 2 places randonnée", lit l'AI Overview qui cite votre comparatif avec votre nom de marque, obtient sa réponse et ne clique pas — votre Search Console enregistre une impression sans clic. C'est un CTR de 0%. Dans votre rapport, c'est une ligne négative.
Pourtant, cet utilisateur a vu votre marque, associée à une expertise. La prochaine fois qu'il cherchera un produit, il y a une probabilité non nulle qu'il tape directement votre nom de marque ou qu'il vous reconnaisse dans les résultats. Ce phénomène de citation fantôme est réel mais quasi impossible à mesurer avec les outils actuels.
Vers de nouveaux KPIs
Les équipes SEO avancées commencent à intégrer des métriques complémentaires :
- Brand search volume : volume de requêtes de marque dans Search Console. Si vos citations AI Overview génèrent de la notoriété, vous devriez voir une corrélation avec la croissance des requêtes branded.
- Share of AI Overview : sur un set de requêtes stratégiques, quelle proportion déclenche un AI Overview qui vous cite versus vos concurrents. Vous pouvez tracker cela manuellement via des SERP checks automatisés, ou avec des outils comme Authoritas ou les modules SERP features de Semrush.
- Assisted conversions from organic : dans GA4, analysez les parcours multi-touch où l'organique intervient en first-touch sur une requête informationnelle avant une conversion sur une requête branded ou directe.
Les rapports SEO classiques basés sur Data Studio montrent ici leurs limites. La dimension AI Overview nécessite des sources de données supplémentaires et une logique de reporting qui intègre la visibilité sans clic.
Implications pour l'architecture technique et le crawl budget
La montée en puissance des AI Overviews a aussi des conséquences côté crawl. Google doit alimenter ses modèles de génération avec du contenu frais et structuré. Les pages qui se retrouvent citées dans les AI Overviews reçoivent logiquement plus de crawl de la part de Googlebot et des crawlers AI.
Optimiser pour le crawl AI
Les données analysées sur 68 millions de visites de crawlers AI montrent que ces crawlers privilégient les pages avec une structure sémantique claire, des données structurées riches et un temps de réponse serveur rapide.
Si vous constatez que vos pages les plus citées dans les AI Overviews ont un TTFB élevé ou des problèmes de rendering, vous risquez de perdre ces citations au profit de concurrents dont l'infrastructure est plus solide. L'analyse de logs reste un levier sous-exploité pour comprendre quels crawlers accèdent à quelles pages et avec quelle fréquence.
Cas concret : migration SSR et impact sur les citations AI Overview
Un média tech de 12 000 articles migre de Nuxt 2 (mode SPA avec hydratation client) vers Nuxt 3 en mode SSR universel. Avant la migration, 340 de ses articles sont régulièrement cités dans les AI Overviews de Google. Après la migration, une régression dans la configuration du serveur fait que 15% des pages renvoient un contenu vide en pre-rendering pour les requêtes sans JavaScript.
# nginx.conf — erreur classique post-migration SSR
# Le upstream timeout est trop court pour les pages lourdes
upstream nuxt_backend {
server 127.0.0.1:3000;
keepalive 64;
}
server {
listen 443 ssl http2;
server_name www.mediatech-exemple.fr;
location / {
proxy_pass http://nuxt_backend;
proxy_http_version 1.1;
proxy_set_header Connection "";
# PROBLÈME : timeout de 5s trop court pour les pages
# avec beaucoup de données structurées
proxy_read_timeout 5s; # → devrait être 30s minimum
proxy_connect_timeout 5s;
# MANQUANT : fallback en cas de timeout SSR
# proxy_intercept_errors on;
# error_page 502 503 504 /fallback.html;
}
}
Résultat : Googlebot reçoit des pages 502 sur les articles les plus denses. En 3 semaines, 52 des 340 articles perdent leur citation AI Overview. Le trafic ne s'effondre pas immédiatement (les positions organiques classiques sont maintenues via le cache), mais la visibilité dans les AI Overviews chute de 15%. Sans monitoring des réponses serveur par user-agent, l'équipe ne détecte le problème que 6 semaines plus tard, lors du reporting mensuel.
C'est exactement le type de régression que les architectures machine-first doivent anticiper. Et c'est aussi pourquoi le monitoring en continu du rendering et des réponses serveur par type de crawler n'est plus optionnel.
Le vrai risque : l'érosion silencieuse du mid-funnel
La chute de 61% du CTR sur les AI Overviews est un symptôme d'un changement plus profond dans la structure du search funnel. Google absorbe progressivement la couche informationnelle du parcours utilisateur. L'utilisateur qui cherchait "différence entre Gore-Tex et eVent" et cliquait sur votre article comparatif pour ensuite naviguer vers vos pages produit — cet utilisateur obtient maintenant sa réponse sans quitter la SERP.
Le trafic direct et le trafic branded résistent mieux, parce qu'ils correspondent à une intention déjà formée. Mais le trafic mid-funnel informationnel, celui qui alimente la considération et la découverte de marque, se comprime. C'est une tendance que la direction de Google Search sous Liz Reid confirme implicitement : le search évolue vers un modèle où Google répond plus directement, quitte à réduire les clics sortants.
La réponse stratégique n'est pas de lutter contre cette évolution, mais de l'intégrer dans votre modèle :
- Accepter que certaines requêtes informationnelles ne génèreront plus de clics — et réallouer le budget content vers des formats que l'AI Overview ne peut pas remplacer (outils interactifs, configurateurs, données propriétaires).
- Transformer les citations AI Overview en levier de marque — en structurant le contenu pour que chaque citation renforce la reconnaissance de votre expertise.
- Monitorer l'évolution par segment, pas en agrégé — pour détecter les glissements avant qu'ils n'impactent le pipeline commercial.
La donnée de Seer Interactive est claire : les clics n'ont pas collapse. Mais la distribution de ces clics, leur provenance dans le funnel, et le ratio entre visibilité obtenue et trafic capturé ont fondamentalement changé. Les équipes qui attendent de voir une chute dans Google Analytics pour réagir auront déjà perdu le contrôle de leur visibilité mid-funnel. Un monitoring granulaire par cluster de requêtes, avec détection automatique des signatures AI Overview — que ce soit via Seogard ou un pipeline custom — est la seule façon de garder une longueur d'avance sur cette transition.