Un site média publie 4 000 articles générés par LLM en trois mois. Le trafic organique triple. Puis une core update passe, et 78 % des pages tombent hors du top 100 en moins de deux semaines. Ce scénario — que Taylor DanRW décrit comme le "Mt. AI" pattern dans Search Engine Journal — se répète sur des dizaines de domaines depuis fin 2024. Le problème n'est pas que Google détecte le contenu AI. Le problème est qu'il applique un seuil de qualité que le volume seul ne peut pas franchir.
Le "Mt. AI" pattern : anatomie d'un crash prévisible
Le terme "Mt. AI" décrit une courbe de trafic en forme de montagne : ascension rapide, plateau court, chute verticale. Ce pattern est devenu tellement récurrent qu'il constitue un signal d'alerte fiable pour les SEO qui analysent des domaines concurrents.
La mécanique du seuil
Google ne fonctionne pas avec un classificateur binaire "AI = mauvais / humain = bon". Le quality threshold est un ensemble de signaux agrégés qui évaluent la valeur ajoutée d'une page par rapport au corpus existant sur la même intention de recherche. Quand un site publie massivement du contenu reformulé sans expertise différenciante, ces signaux convergent vers un score insuffisant — pas page par page, mais au niveau du domaine.
Le mécanisme ressemble à ce que les ingénieurs de Google décrivent dans la documentation sur le site-level classifier : un signal de qualité global qui affecte la capacité de toutes les pages du domaine à se positionner, y compris celles qui existaient avant la vague de contenu AI.
Un scénario réel : le cas d'un site e-commerce contenu
Prenons un cas concret et représentatif. Un e-commerce de matériel de sport avec 12 000 pages produit et 800 pages éditoriales décide d'utiliser GPT-4 pour créer 3 200 guides d'achat et comparatifs en 10 semaines. La stratégie semble rationnelle : couvrir la longue traîne informationnelle pour alimenter le haut du tunnel.
Semaines 1-8 : les pages sont indexées rapidement (le site a un bon crawl budget historique). Le trafic organique passe de 145 000 à 310 000 sessions/mois. Les KPIs internes sont au vert.
Semaines 9-14 : plateau. Le taux d'indexation des nouvelles pages chute de 92 % à 34 %. Google Search Console montre une augmentation des pages "Discovered – currently not indexed" et "Crawled – currently not indexed".
Semaine 15 (core update) : le trafic tombe à 89 000 sessions/mois. Les 3 200 nouvelles pages perdent en moyenne 47 positions. Pire : les 800 pages éditoriales historiques (rédigées par des experts) perdent 12 positions en moyenne. Le signal site-level a contaminé l'ensemble du domaine.
Ce scénario illustre un point que nous avons déjà analysé : la corrélation entre volume de publication et croissance SEO s'est rompue. Le quality threshold rend cette stratégie non seulement inefficace, mais activement destructrice.
Détecter les signaux avant-coureurs dans Search Console
Le crash ne survient pas sans avertissement. Les signaux existent dans vos données — il faut savoir où regarder.
Le ratio indexation / publication
Le premier indicateur fiable est l'évolution du taux d'indexation de vos nouvelles pages. Un site en bonne santé éditoriale maintient un ratio supérieur à 85 % sur les pages soumises. Quand ce ratio chute sous 50 % sans changement technique, Google vous envoie un message clair : il ne juge pas vos nouvelles pages dignes d'indexation.
Vous pouvez monitorer ce ratio en exportant les données de couverture d'index via l'API Search Console :
from google.oauth2 import service_account
from googleapiclient.discovery import build
import json
SCOPES = ['https://www.googleapis.com/auth/webmasters.readonly']
SERVICE_ACCOUNT_FILE = 'credentials.json'
credentials = service_account.Credentials.from_service_account_file(
SERVICE_ACCOUNT_FILE, scopes=SCOPES)
service = build('searchconsole', 'v1', credentials=credentials)
# Récupérer les stats d'indexation par catégorie
request = {
'startDate': '2026-04-01',
'endDate': '2026-05-07',
'dimensions': ['page'],
'dimensionFilterGroups': [{
'filters': [{
'dimension': 'page',
'operator': 'includingRegex',
'expression': '/guides/.*' # Filtrer sur le répertoire des contenus AI
}]
}],
'rowLimit': 25000
}
response = service.searchanalytics().query(
siteUrl='https://www.sport-equipment-example.fr',
body=request
).execute()
indexed_pages = len(response.get('rows', []))
total_published = 3200 # Nombre connu de pages publiées
ratio = (indexed_pages / total_published) * 100
print(f"Ratio d'indexation : {ratio:.1f}%")
print(f"Pages indexées avec impressions : {indexed_pages}")
print(f"Pages sans visibilité : {total_published - indexed_pages}")
Le signal de qualité dans les données de performance
Le deuxième indicateur est plus subtil : une baisse du CTR moyen sur les pages existantes, combinée à une perte de positions sur des requêtes historiquement stables. Ce pattern indique que le site-level quality signal commence à affecter votre domaine.
Dans Search Console, comparez les performances de vos pages pré-AI et post-AI sur une fenêtre de 28 jours glissants. Si les pages historiques perdent du terrain sans modification, c'est le signal site-level qui agit.
Les logs serveur ne mentent pas
L'analyse des logs Googlebot révèle un autre signal : la fréquence de recrawl des pages AI par rapport aux pages historiques. Un bot qui diminue sa fréquence de crawl sur un segment spécifique indique une dépriorisation.
# Extraire la fréquence de crawl Googlebot par répertoire sur les 30 derniers jours
zcat /var/log/nginx/access.log.*.gz | \
grep -i "googlebot" | \
awk '{print $7}' | \
sed 's/\?.*//g' | \
awk -F'/' '{
if ($2 == "guides") print "ai_content";
else if ($2 == "blog") print "editorial_legacy";
else if ($2 == "products") print "product_pages";
else print "other";
}' | \
sort | uniq -c | sort -rn
# Résultat typique d'un site touché :
# 145230 product_pages
# 23100 editorial_legacy
# 4200 ai_content ← ratio disproportionné vs nombre de pages
# 12400 other
Si vous avez 3 200 pages AI et que Googlebot n'en visite que 4 200 fois en 30 jours (1.3 crawl/page/mois), contre 29 crawls/page/mois pour vos pages produit, la conclusion est évidente. Un outil de monitoring comme Seogard permet de détecter automatiquement ces variations de crawl budget par segment, sans parsing manuel des logs.
Ce que Google évalue réellement : au-delà du détecteur AI
La confusion la plus répandue dans l'industrie est de croire que Google utilise un "détecteur d'IA" binaire. Ce n'est pas le cas. Les documents de la Google Search Quality Rater Guidelines et les communications officielles pointent vers une évaluation multi-dimensionnelle.
Information gain : le critère qui tue le contenu scalé
Le brevet Google sur l'information gain score (US20200349181A1) décrit un système qui évalue la valeur informationnelle marginale d'un document par rapport aux documents déjà connus pour une requête donnée. Un contenu AI scalé, par définition entraîné sur le corpus existant, a un information gain proche de zéro. Il reformule ce qui existe déjà.
Ce critère explique pourquoi un article AI bien rédigé (syntaxe correcte, structure claire, pas de hallucination) peut quand même être éliminé : il n'apporte rien de nouveau au corpus.
E-E-A-T au niveau du site, pas de la page
L'Experience, Expertise, Authoritativeness et Trustworthiness ne se jouent pas uniquement page par page. Quand 40 % de votre contenu est perçu comme générique, le signal E-E-A-T du domaine entier est dilué. C'est la raison pour laquelle les pages historiques de qualité souffrent après une vague de publication AI — un phénomène que les signaux de visibilité AI confirment par un autre angle.
Le test du "so what"
La heuristique la plus fiable pour évaluer si votre contenu AI survivra au quality threshold : prenez un article, supprimez mentalement tout ce qui peut être trouvé dans les 5 premiers résultats existants. Ce qui reste est votre information gain réelle. Si la page est vide après cet exercice, elle est condamnée.
Stratégie de contenu post-threshold : le framework éditorial qui résiste
La réponse n'est pas d'abandonner l'AI. C'est de restructurer la chaîne de production pour que l'AI serve une stratégie éditoriale au lieu de la remplacer.
L'approche "seed + scale" au lieu de "generate + publish"
Le modèle qui fonctionne en 2026 :
-
Seed : un expert produit un document source dense — données propriétaires, retour d'expérience terrain, benchmark interne, analyse originale. Ce document n'est pas destiné à la publication directe.
-
Structure : l'AI transforme ce document source en plusieurs contenus dérivés — chacun ciblant une intention différente, mais tous ancrés dans l'expertise originale.
-
Validate : un éditeur vérifie la fidélité au document source et enrichit avec des éléments que l'AI ne peut pas produire (screenshots de cas clients anonymisés, données internes, nuances métier).
Ce workflow est plus lent (20-30 contenus/semaine au lieu de 200), mais chaque page porte un information gain réel parce qu'elle est dérivée d'une source originale.
Implémentation technique : structurer les signaux d'expertise
Au-delà du contenu textuel, les signaux techniques renforcent l'évaluation E-E-A-T. Les données structurées d'auteur, correctement implémentées, constituent l'un de ces signaux.
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "Article",
"headline": "Guide technique : calibration des suspensions VTT pour l'enduro",
"author": {
"@type": "Person",
"name": "Marc Delannoy",
"jobTitle": "Mécanicien cycle certifié Shimano",
"url": "https://www.sport-equipment-example.fr/experts/marc-delannoy",
"sameAs": [
"https://www.linkedin.com/in/marc-delannoy-vtt",
"https://www.strava.com/athletes/marc-delannoy"
],
"knowsAbout": ["mountain bike suspension", "enduro racing", "bicycle mechanics"],
"worksFor": {
"@type": "Organization",
"name": "Sport Equipment Example",
"url": "https://www.sport-equipment-example.fr"
}
},
"datePublished": "2026-05-01",
"dateModified": "2026-05-07",
"isBasedOn": {
"@type": "CreativeWork",
"name": "Données de calibration sur 340 vélos en atelier (2024-2026)",
"description": "Base de données propriétaire issue de 340 interventions de calibration suspension en atelier"
}
}
</script>
Le champ isBasedOn est un signal rarement utilisé mais pertinent : il explicite que le contenu dérive de données propriétaires. Ce n'est pas un facteur de ranking direct, mais il alimente le knowledge graph de Google sur la provenance de l'information.
Notez que la page auteur (/experts/marc-delannoy) doit elle-même être substantielle — bio détaillée, liste de publications, preuves d'expertise. Une page auteur vide ou template est pire que pas de page auteur du tout.
Auditer et assainir un corpus contaminé
Si vous êtes déjà dans la phase descendante du "Mt. AI", la question urgente est : comment limiter les dégâts et récupérer ?
Segmentation du corpus par qualité
L'audit commence par une segmentation. Vous devez identifier précisément quelles pages tirent le signal de qualité vers le bas. Screaming Frog, combiné avec un export Search Console, permet de croiser les données de performance avec les métadonnées de publication.
# Screaming Frog CLI : crawl avec extraction personnalisée
# Configuration : extraire la date de publication et le mot-count
screamingfrog --crawl https://www.sport-equipment-example.fr \
--headless \
--output-folder /tmp/audit \
--export-tabs "Internal:All" \
--config /path/to/custom-config.seospiderconfig
# Puis croiser avec les données Search Console via Python
import pandas as pd
crawl = pd.read_csv('/tmp/audit/internal_all.csv')
gsc = pd.read_csv('search_console_export.csv')
# Joindre sur l'URL
merged = crawl.merge(gsc, left_on='Address', right_on='page', how='left')
# Identifier les pages à faible performance (< 10 impressions sur 90 jours)
# publiées après la vague AI (après le 2026-01-15)
ai_wave_start = '2026-01-15'
low_performers = merged[
(merged['Impressions'] < 10) &
(merged['last_modified'] > ai_wave_start)
]
print(f"Pages AI à faible performance : {len(low_performers)}")
print(f"Pourcentage du total AI : {len(low_performers)/3200*100:.1f}%")
# Catégoriser l'action recommandée
for idx, row in low_performers.iterrows():
if row['Impressions'] == 0 and row['Word Count'] < 800:
action = 'SUPPRIMER (410)'
elif row['Impressions'] < 5:
action = 'NOINDEX ou fusionner'
else:
action = 'RÉÉCRIRE avec expertise'
low_performers.at[idx, 'action'] = action
low_performers.to_csv('remediation_plan.csv', index=False)
Les trois leviers de remédiation
Levier 1 — Suppression franche (HTTP 410) : les pages sans aucune impression sur 90 jours et sans backlinks doivent être supprimées avec un code 410 (Gone), pas un 404. Le 410 indique explicitement à Googlebot que la page est intentionnellement retirée, ce qui accélère la désindexation.
Levier 2 — Consolidation : les pages qui couvrent des sujets proches doivent être fusionnées en un seul contenu exhaustif. Si vous avez 15 "guides" sur les chaussures de trail qui disent tous la même chose avec des variantes de longue traîne, consolidez en 3 pages substantielles avec des redirections 301.
Levier 3 — Enrichissement éditorial : les pages qui ont un embryon de trafic (10-50 impressions) méritent d'être retravaillées par un expert du sujet pour injecter de l'information gain réelle. C'est le levier le plus rentable en ratio effort/impact.
Ce travail d'assainissement rejoint les principes de la SEO programmatique sémantique : chaque page doit avoir une raison d'exister qui dépasse le simple ciblage d'un keyword.
Le monitoring continu comme filet de sécurité
Le quality threshold n'est pas un événement ponctuel. C'est un filtre permanent qui s'applique à chaque crawl, à chaque core update. La détection tardive est ce qui transforme un problème gérable en catastrophe.
Les métriques à surveiller en continu
Trois métriques composites permettent de détecter une dégradation avant qu'elle ne devienne visible dans le trafic :
-
Ratio pages indexées / pages soumises (par segment) : une chute de plus de 15 points sur 14 jours est un signal d'alerte.
-
Position moyenne pondérée des pages historiques : si les pages créées avant votre campagne AI perdent des positions, le signal site-level est en train de se dégrader.
-
Fréquence de crawl par segment : une diminution du crawl budget alloué à un segment spécifique précède généralement une perte de visibilité de 2 à 4 semaines.
Ces trois métriques, suivies de manière automatisée avec un outil comme Seogard qui alerte sur les régressions en temps réel, permettent de réagir avant la core update plutôt qu'après.
Le piège de l'inertie post-crash
Le réflexe le plus dangereux après un crash "Mt. AI" est de ne rien faire en espérant que la prochaine update sera plus clémente. Les données montrent le contraire : chaque core update successive enfonce davantage les sites dont le ratio contenu à faible valeur / contenu de qualité est défavorable. L'assainissement doit être immédiat et agressif.
Les sites qui ont récupéré le plus rapidement après les updates 2025-2026 partagent un point commun : ils ont supprimé entre 40 et 60 % de leur contenu AI dans les 30 jours suivant le crash, avant de reconstruire progressivement avec le framework "seed + scale".
L'AI comme outil, pas comme stratégie
La distinction fondamentale que le quality threshold de Google force l'industrie à intégrer : l'AI est un outil de production, pas une stratégie de contenu. Un LLM peut accélérer la rédaction, structurer l'information, adapter le ton. Il ne peut pas créer d'expertise, générer des données propriétaires, ni apporter une perspective originale sur un sujet.
Les sites qui utilisent l'AI pour amplifier une expertise existante — données internes, retours terrain, analyses originales — ne sont pas affectés par le quality threshold. Ceux qui utilisent l'AI pour fabriquer de l'expertise à partir de rien sont systématiquement éliminés.
C'est la même dynamique que celle observée dans la visibilité AI : les modèles de langage, qu'ils soient chez Google ou chez OpenAI, convergent vers les mêmes signaux de qualité. Un contenu sans information gain est ignoré par les deux systèmes.
Le quality threshold de Google n'est pas un filtre anti-AI. C'est un filtre anti-médiocrité à grande échelle — et l'AI a simplement rendu la médiocrité scalable. La survie passe par le monitoring continu des signaux de dégradation, l'assainissement agressif des corpus contaminés, et une chaîne éditoriale où l'expertise humaine reste le point d'entrée, pas un vernis de relecture.