Core Update, crawl limits et Gemini : décryptage technique

Un core update en cours de déploiement, des précisions inédites de Gary Illyes sur l'architecture interne de Googlebot, et un trafic referral Gemini qui double en quelques semaines. Ces trois signaux convergent vers une même réalité : la manière dont Google consomme, évalue et redistribue le web est en train de muter structurellement. Voici ce que ça change concrètement pour vos sites.

Le March 2025 Core Update : ce qu'on sait, ce qu'on observe

Google a confirmé le déploiement d'un core update en mars 2025. Comme d'habitude, la communication officielle reste minimale : « We released the March 2025 core update » sur la page Google Search Status Dashboard. Pas de guidance spécifique, pas de secteur ciblé.

Le pattern des core updates récents

Depuis le Helpful Content Update de septembre 2023 et sa fusion dans le core algorithm, les core updates ne sont plus des ajustements marginaux. Ils intègrent désormais les signaux de qualité de contenu directement dans le ranking principal. Ce qui signifie que chaque core update est potentiellement un HCU déguisé.

Les premiers retours terrain sur ce March 2025 update montrent des patterns familiers :

  • Des sites avec du contenu thin ou programmatique perdent de la visibilité, surtout sur les requêtes informationnelles longue traîne.
  • Des sites éditoriaux avec une forte couverture topique regagnent des positions perdues lors de mises à jour précédentes.
  • Les sites e-commerce avec des fiches produit dupliquées ou auto-générées sans valeur ajoutée voient leur crawl rate chuter — un signal indirect mais révélateur.

Mesurer l'impact réel sur votre site

La Search Console reste l'outil de référence, mais ses données d'impression ont été sujettes à des bugs récents — un problème de comptage gonflé que Google a corrigé. Fiez-vous plutôt à l'évolution des clics et de la position moyenne sur des segments de requêtes stables.

Pour un suivi granulaire pendant le rollout, un script Python qui interroge l'API Search Console permet de détecter les baisses par répertoire :

from google.oauth2 import service_account
from googleapiclient.discovery import build
import datetime

SCOPES = ['https://www.googleapis.com/auth/webmasters.readonly']
SERVICE_ACCOUNT_FILE = 'credentials.json'
SITE_URL = 'https://www.votre-ecommerce.fr/'

credentials = service_account.Credentials.from_service_account_file(
    SERVICE_ACCOUNT_FILE, scopes=SCOPES)
service = build('searchAnalytics', 'v1', credentials=credentials)

# Comparer les 7 jours post-update vs les 7 jours pré-update
def get_performance(start_date, end_date):
    request = {
        'startDate': start_date,
        'endDate': end_date,
        'dimensions': ['page'],
        'dimensionFilterGroups': [{
            'filters': [{
                'dimension': 'page',
                'operator': 'includingRegex',
                'expression': '/produits/'
            }]
        }],
        'rowLimit': 5000
    }
    return service.searchanalytics().query(
        siteUrl=SITE_URL, body=request).execute()

pre_update = get_performance('2025-03-05', '2025-03-12')
post_update = get_performance('2025-03-15', '2025-03-22')

# Calculer le delta de clics par URL
pre_dict = {row['keys'][0]: row['clicks'] for row in pre_update.get('rows', [])}
post_dict = {row['keys'][0]: row['clicks'] for row in post_update.get('rows', [])}

for url, clicks_post in post_dict.items():
    clicks_pre = pre_dict.get(url, 0)
    if clicks_pre > 0:
        delta = ((clicks_post - clicks_pre) / clicks_pre) * 100
        if delta < -30:
            print(f"ALERTE: {url}{delta:.1f}% ({clicks_pre}{clicks_post})")

Ce type de monitoring automatisé détecte les baisses significatives avant qu'elles n'apparaissent dans les rapports agrégés de la Search Console (qui ont souvent 48-72h de latence). Un outil de monitoring continu comme Seogard automatise ce type de détection et déclenche des alertes dès qu'une régression de visibilité est identifiée sur un segment de pages.

L'architecture de crawl de Googlebot : les révélations d'Illyes

Gary Illyes a partagé des détails techniques inhabituellement précis sur le fonctionnement interne du crawler de Google. Ces informations changent la compréhension qu'on peut avoir du « crawl budget » — un terme que Google n'utilise d'ailleurs jamais en interne.

Crawl rate limit vs crawl demand

Illyes distingue deux mécanismes indépendants :

Le crawl rate limit est une contrainte technique côté serveur. Googlebot mesure la capacité de réponse de votre infrastructure et ajuste dynamiquement sa fréquence de requêtes. Si votre temps de réponse dépasse un seuil (généralement autour de 500ms de façon soutenue), Googlebot ralentit. Si votre serveur renvoie des 429 ou des 503, il recule plus agressivement.

Le crawl demand est la volonté de Google de crawler vos pages. C'est un signal de popularité et de fraîcheur attendue. Une page qui reçoit beaucoup de backlinks et dont le contenu change fréquemment aura une crawl demand élevée.

Le crawl budget effectif est le minimum des deux. Vous pouvez avoir un serveur capable d'absorber 50 requêtes/seconde de Googlebot — si la crawl demand ne justifie que 2 requêtes/seconde, c'est 2 que vous aurez.

Le détail architectural que personne n'a relevé

Illyes a précisé que Googlebot n'est pas un crawler monolithique. C'est un système distribué avec plusieurs composants :

  • Le scheduler décide quelles URLs crawler et quand.
  • Le fetcher exécute les requêtes HTTP.
  • Le renderer (le Web Rendering Service, basé sur Chrome headless) entre en jeu uniquement quand c'est nécessaire — et c'est là que ça coûte cher en ressources.

Ce qui signifie que pour Google, crawler une page statique HTML coûte une fraction de ce que coûte le rendu d'une SPA React. Ce n'est pas juste une question de temps de rendu : c'est une question d'allocation de ressources dans l'infrastructure de Google elle-même. Si votre site nécessite systématiquement un rendu JavaScript, vous consommez plus de « budget » au sens large que le même contenu servi en HTML statique ou SSR.

C'est exactement pourquoi le choix entre SSR et CSR a un impact réel et mesurable sur le SEO. Et c'est aussi pourquoi Google peut voir une page blanche sur votre SPA si le Web Rendering Service échoue ou n'est jamais déclenché pour cette URL.

Optimiser concrètement vos crawl limits

Pour un site e-commerce de 15 000 pages produit avec 3 000 pages de catégories, la configuration serveur a un impact direct. Voici une configuration Nginx optimisée pour le crawl :

# /etc/nginx/conf.d/googlebot-optimization.conf

# Rate limiting adaptatif — ne pas limiter Googlebot
# mais protéger contre les crawlers abusifs
map $http_user_agent $is_googlebot {
    default 0;
    "~*Googlebot" 1;
    "~*Google-InspectionTool" 1;
}

# Zone de rate limiting pour les bots non-Google
limit_req_zone $binary_remote_addr zone=bots:10m rate=10r/s;

server {
    listen 443 ssl http2;
    server_name www.shop-electromenager.fr;

    # Activer la compression pour réduire le temps de transfert
    gzip on;
    gzip_types text/html text/css application/javascript application/json;
    gzip_min_length 256;

    # Headers de cache stratégiques pour Googlebot
    location ~* \.(css|js|png|jpg|webp|woff2)$ {
        expires 365d;
        add_header Cache-Control "public, immutable";
    }

    # Pages produit — contenu dynamique, mais structure stable
    location /produits/ {
        # Ne pas rate-limiter Googlebot
        if ($is_googlebot = 0) {
            set $limit_tag $binary_remote_addr;
        }

        # Servir un HTML complet côté serveur (SSR ou SSG)
        # Pas de client-side rendering pour les bots
        proxy_pass http://nextjs_backend;
        proxy_set_header X-Forwarded-For $proxy_real_ip;

        # Timeout agressif — si le backend ne répond pas en 3s,
        # Googlebot reçoit un 504 et reviendra plus tard
        proxy_read_timeout 3s;
        proxy_connect_timeout 1s;
    }

    # Sitemap — servir depuis un fichier statique, pas un endpoint dynamique
    location /sitemap.xml {
        alias /var/www/sitemaps/sitemap-index.xml;
        add_header Content-Type "application/xml";
        # Pas de cache navigateur, Google doit voir la dernière version
        add_header Cache-Control "no-cache, must-revalidate";
    }
}

Le point clé : le proxy_read_timeout à 3 secondes. Si votre backend SSR met plus de 3 secondes à rendre une page, il vaut mieux renvoyer une erreur propre que de faire attendre Googlebot. Un 504 ponctuel est moins dommageable qu'un temps de réponse moyen de 5 secondes qui va faire chuter votre crawl rate limit global.

Diagnostiquer votre crawl rate en temps réel

L'analyse des logs serveur reste le moyen le plus fiable de comprendre comment Googlebot consomme votre site. Voici comment extraire les métriques clés :

# Extraire les requêtes Googlebot des dernières 24h
# et calculer les métriques de crawl

# Nombre de requêtes Googlebot par heure
grep "Googlebot" /var/log/nginx/access.log \
  | awk '{print $4}' \
  | cut -d: -f1-2 \
  | sort | uniq -c | sort -rn | head -24

# Temps de réponse moyen pour les pages crawlées par Googlebot
grep "Googlebot" /var/log/nginx/access.log \
  | awk '{print $NF}' \
  | awk '{sum+=$1; n++} END {print "Avg response time:", sum/n, "seconds"}'

# Pages les plus crawlées (identifier le crawl waste)
grep "Googlebot" /var/log/nginx/access.log \
  | awk '{print $7}' \
  | sort | uniq -c | sort -rn | head -50

# Codes de réponse retournés à Googlebot
grep "Googlebot" /var/log/nginx/access.log \
  | awk '{print $9}' \
  | sort | uniq -c | sort -rn

Sur un site e-commerce de 15 000 pages, un pattern fréquent : Googlebot passe 40% de ses requêtes sur des pages de filtres à facettes (/produits?couleur=rouge&taille=xl&tri=prix), qui ne sont ni canonicalisées, ni bloquées. Ce crawl waste réduit mécaniquement la fréquence de crawl des pages produit réelles.

Screaming Frog en mode log analyzer croise ces données avec les URLs de votre sitemap pour identifier l'écart entre ce que vous voulez que Google crawle et ce qu'il crawle réellement. L'outil GSC (rapport « Statistiques d'exploration ») donne un aperçu, mais avec 5-7 jours de retard et sans la granularité URL par URL.

Le doublement du trafic referral Gemini : analyse et implications

Le trafic referral provenant de Gemini (l'interface conversationnelle IA de Google) a doublé selon les données observées par plusieurs analystes. Ce n'est plus un signal marginal.

Pourquoi c'est structurellement différent du Search classique

Le trafic Gemini arrive via un referrer identifiable : gemini.google.com. Dans Google Analytics 4, il apparaît dans le rapport d'acquisition sous « Referral » et non sous « Organic Search ». Ce qui signifie que si vous ne l'isolez pas, il se noie dans votre trafic referral global aux côtés de Reddit et LinkedIn.

Le pattern comportemental est aussi radicalement différent. Un utilisateur Gemini a déjà obtenu une synthèse de la réponse dans l'interface conversationnelle. S'il clique vers votre site, c'est pour approfondir. Le taux de rebond est typiquement plus bas, le temps passé plus élevé — mais le volume est encore 10 à 50x inférieur au Search organique classique pour la plupart des sites.

Identifier et mesurer le trafic Gemini

Créez un segment dédié dans GA4 pour isoler ce trafic :

// Exemple de configuration GTM pour taguer le trafic Gemini
// Custom JavaScript Variable dans Google Tag Manager

function() {
  var referrer = document.referrer || '';

  // Identifier les différentes sources IA de Google
  var aiSources = {
    'gemini.google.com': 'gemini',
    'bard.google.com': 'bard_legacy',
    'labs.google.com': 'google_labs'
  };

  for (var domain in aiSources) {
    if (referrer.indexOf(domain) !== -1) {
      return aiSources[domain];
    }
  }

  // Identifier le trafic AI Overviews (plus complexe car même domaine)
  // Le referrer est google.com mais le comportement est différent
  if (referrer.indexOf('google.com/search') !== -1) {
    // Heuristique : vérifier si un paramètre spécifique est présent
    var url = new URL(document.location.href);
    var source = url.searchParams.get('utm_source');
    if (source && source.indexOf('ai_overview') !== -1) {
      return 'ai_overview';
    }
  }

  return 'none';
}

Ce tag vous permet de créer des audiences et des rapports dédiés. Sur un site média de 8 000 articles, cette segmentation a révélé que le trafic Gemini se concentrait sur 3% des URLs — principalement les articles de type « guide complet » et « comparatif ».

L'impact sur la stratégie de contenu

Le doublement du trafic Gemini n'est pas une raison de pivoter votre stratégie. Mais c'est un signal d'investissement à surveiller. Les pages qui captent du trafic Gemini partagent des caractéristiques communes :

  • Structure sémantique claire (des H2/H3 qui répondent à des sous-questions spécifiques)
  • Données factuelles vérifiables (tableaux comparatifs, listes de specs, prix datés)
  • Contenu qui va au-delà de la réponse directe (Gemini fournit la réponse courte, votre page fournit le contexte, les nuances, les edge cases)

Ce n'est pas un hasard : ces mêmes caractéristiques sont celles qui performent le mieux dans les core updates récents. Google semble aligner progressivement ses signaux de qualité entre le Search classique et ses produits IA.

Scénario concret : un site e-commerce pendant le core update

Prenons un cas réaliste. Shop-Électro, un e-commerce d'électroménager avec 14 800 pages produit, 1 200 pages catégories, et 350 articles de blog.

La situation pré-update

  • Crawl rate moyen de Googlebot : 1 800 pages/jour
  • 35% du crawl consacré aux pages de filtres non canonicalisées (environ 630 requêtes/jour gaspillées)
  • Temps de réponse serveur moyen : 420ms (correct) mais avec des pics à 2.5s sur les pages catégories avec plus de 200 produits
  • Contenu : fiches produit générées automatiquement à partir du flux fournisseur, enrichies manuellement pour seulement 2 300 produits best-sellers
  • Trafic organique : 85 000 sessions/mois

Ce qui se passe pendant le rollout

Semaine 1 du core update : les pages catégories perdent en moyenne 4 positions. Le crawl rate chute à 1 200 pages/jour. Les 12 500 fiches produit non enrichies perdent collectivement 18% de leur trafic organique. Les 2 300 fiches enrichies restent stables ou gagnent légèrement.

L'analyse des logs révèle que Googlebot a réduit son crawl des pages catégories de 60%. Le temps de réponse moyen de ces pages était monté à 1.8s suite à une augmentation de charge côté catalogue (ajout de 600 produits saisonniers).

Le plan de remédiation

Action 1 : éliminer le crawl waste (impact en 48-72h sur le crawl rate)

Ajout de directives noindex, follow sur toutes les URLs à facettes avec plus d'un filtre actif, et blocage des patterns de crawl inutiles via robots.txt :

# robots.txt — bloquer les combinaisons de filtres
User-agent: *
Disallow: /produits?*couleur=*&*taille=
Disallow: /produits?*tri=
Disallow: /produits?*page=*&*filtre=

# Mais autoriser les filtres individuels qui ont de la valeur SEO
Allow: /produits?categorie=
Allow: /produits?marque=

Sitemap: https://www.shop-electro.fr/sitemap-index.xml

Action 2 : réduire le temps de réponse des catégories

Mise en cache des réponses JSON du catalogue produit avec un TTL de 15 minutes. Le temps de réponse moyen des pages catégories passe de 1.8s à 280ms.

Action 3 : enrichissement massif des fiches produit

Les 12 500 fiches non enrichies reçoivent un enrichissement semi-automatisé : extraction des avis clients pour générer un résumé des points forts/faibles, ajout de tableaux de compatibilité, et sections FAQ basées sur les requêtes Search Console associées.

Les résultats à J+30

  • Crawl rate remonté à 2 400 pages/jour (supérieur au pré-update grâce à l'élimination du crawl waste)
  • Pages catégories : récupération de 3 des 4 positions perdues
  • Fiches produit enrichies (les nouvelles 12 500) : début d'indexation progressive, +8% de trafic organique sur le segment
  • Trafic organique total : 82 000 sessions (vs 85 000 pré-update, soit -3.5% vs -18% sans action)

Ce type de scénario illustre pourquoi la détection rapide est critique. Un monitoring automatisé qui alerte dès les premières heures du rollout donne 2-3 semaines d'avance sur un concurrent qui attend le rapport mensuel de son agence SEO.

Les limites de crawl comme levier d'optimisation active

La majorité des articles sur le crawl budget se limitent à « n'ayez pas trop de 404 » et « soumettez un sitemap ». C'est insuffisant pour un site de plus de 10 000 pages.

Le vrai levier : le rapport signal/bruit de votre site

Google ne crawle pas pour vous faire plaisir. Il crawle parce qu'il estime que vos pages apportent de la valeur à son index. Chaque page de faible qualité indexée dilue la perception globale de votre site.

Le calcul est simple. Si votre site a 15 000 pages dans l'index Google, mais que seulement 5 000 reçoivent du trafic organique, votre rapport signal/bruit est de 33%. Les 10 000 pages restantes consomment du crawl, de l'espace d'index, et tirent vers le bas les signaux de qualité globaux.

Screaming Frog combiné aux données d'exploration de la GSC permet d'identifier ces pages zombies :

  1. Crawlez votre site intégralement avec Screaming Frog
  2. Exportez la liste des URLs indexées depuis la GSC (rapport « Pages » > « Pages indexées non envoyées dans un sitemap »)
  3. Croisez avec vos données Analytics pour identifier les pages avec 0 session organique sur 90 jours

Les pages identifiées sont candidates à trois traitements : enrichissement (si le sujet a du potentiel), consolidation via redirect 301 (si une page similaire performe mieux), ou désindexation via noindex.

Le piège du sitemap exhaustif

Inclure toutes vos URLs dans le sitemap n'est pas une stratégie de crawl. C'est du bruit. Le sitemap doit être un signal éditorial : il dit à Google « ces pages sont celles que je considère comme les plus importantes ».

Pour Shop-Électro, le sitemap optimal ne contient pas les 14 800 fiches produit. Il contient :

  • Les 2 300 fiches enrichies (priorité haute)
  • Les 1 200 pages catégories (priorité moyenne)
  • Les 350 articles de blog (priorité moyenne)
  • Les pages institutionnelles (priorité basse)

Les 12 500 fiches non enrichies sont découvrables via le maillage interne (listing catégories), mais leur absence du sitemap indique à Google qu'elles ne sont pas la priorité.

Ce que ces trois signaux annoncent pour le SEO technique

Le core update, les clarifications sur l'architecture de crawl, et la montée du trafic Gemini dessinent une tendance cohérente. Google optimise ses propres coûts d'infrastructure tout en diversifiant ses surfaces de distribution.

Pour les équipes SEO techniques, les implications sont directes :

Le crawl est une ressource que vous devez gérer activement, pas un acquis. L'époque où Googlebot crawlait tout et indexait tout est révolue. Chaque milliseconde de temps de réponse, chaque page de faible qualité dans votre index, chaque redirect chain non résolue est un coût que vous imposez à Google — et qu'il vous fera payer en réduisant votre crawl allocation.

Les core updates récompensent de plus en plus la densité de qualité, pas le volume. Un site de 3 000 pages toutes excellentes surpassera un site de 30 000 pages dont 25 000 sont médiocres. C'est le message constant depuis le HCU, et chaque core update le renforce.

Le trafic IA est un canal complémentaire qui partage les mêmes signaux de qualité. Les pages qui rankent bien dans le Search classique post-core-update sont les mêmes que Gemini cite et vers lesquelles il envoie du trafic. Il n'y a pas de stratégie « SEO pour l'IA » distincte — il y a du contenu de qualité structuré proprement.

La surveillance continue de ces signaux — crawl rate, indexation, positions, trafic par source — n'est plus optionnelle pour les sites de plus de quelques centaines de pages. Les régressions techniques qui passaient inaperçues il y a deux ans déclenchent aujourd'hui des pertes de visibilité mesurables en quelques jours. Seogard répond précisément à ce besoin en détectant les anomalies de crawl et d'indexation avant qu'elles ne se traduisent en perte de trafic.

Articles connexes

Actualités SEO5 avril 2026

AI Overviews : pourquoi votre contenu n'y apparaît pas

Être en top 10 ne suffit plus. Découvrez comment optimiser structure, balisage et récupération pour apparaître dans les AI Overviews de Google.

Actualités SEO5 avril 2026

Bug Search Console : impressions gonflées depuis mai 2025

Google corrige un bug GSC qui gonflait les impressions depuis le 13 mai 2025. Analyse technique, impact réel et scripts pour auditer vos données.

Actualités SEO5 avril 2026

Splitter son sitemap XML : ce que Google recommande vraiment

Faut-il découper son sitemap en plusieurs fichiers ? Analyse technique des recommandations de John Mueller et implémentation concrète.