Ghost Citations : quand les LLM citent sans sourcer

Un LLM recommande votre produit à un utilisateur. Aucun lien n'accompagne la réponse. L'utilisateur retient le nom, peut-être, mais ne visite jamais votre site. Votre marque existe dans la couche de génération de texte — elle n'existe pas dans votre analytics. Kevin Indig a formalisé ce phénomène sous le terme Ghost Citation Problem, après une analyse comparative de quatre LLM majeurs. Le constat mérite qu'on s'y arrête techniquement.

Ce que révèle l'analyse cross-LLM

L'étude publiée par Kevin Indig sur Search Engine Journal compare le comportement de citation de ChatGPT (GPT-4o), Gemini, Claude et Perplexity sur un corpus de requêtes identiques. Le résultat clé : la majorité des mentions de marques et de sources dans les réponses LLM ne sont accompagnées d'aucun lien cliquable. C'est la ghost citation — une référence textuelle sans attribution navigable.

Mention vs. Citation : la distinction fondamentale

Une mention est l'apparition du nom d'une marque, d'un outil ou d'un site dans le texte généré. Une citation est une mention accompagnée d'un lien permettant à l'utilisateur de naviguer vers la source. La différence semble triviale. En pratique, elle détermine si le trafic arrive ou non.

Perplexity est le seul modèle qui cite systématiquement ses sources avec des liens numérotés en bas de réponse — un comportement calqué sur la recherche académique. ChatGPT et Gemini mentionnent des marques, des études, des outils, mais fournissent rarement un lien direct. Claude adopte une posture intermédiaire : il cite parfois la source textuelle (nom du site, titre de l'article) sans URL.

Les chiffres qui comptent

Sur les requêtes testées par Indig, le ratio mention/citation varie dramatiquement :

  • Perplexity : ~80-90% des mentions sont des citations avec lien
  • ChatGPT : ~10-15% des mentions incluent un lien (principalement via la fonctionnalité Browse)
  • Gemini : ~5-20% selon le mode (Search Generative Experience vs. conversation standard)
  • Claude : ~0-5% de liens directs (Claude ne browse pas par défaut)

Ces ordres de grandeur révèlent un problème structurel. Si votre stratégie GEO (Generative Engine Optimization) repose sur "être mentionné par les LLM", vous optimisez pour une métrique qui ne génère pas de trafic dans 70 à 95% des cas.

Anatomie technique d'une ghost citation

Pour comprendre pourquoi les LLM citent sans lier, il faut regarder l'architecture de génération de réponse.

Le pipeline de réponse d'un LLM avec RAG

La plupart des LLM connectés au web utilisent un pipeline Retrieval-Augmented Generation (RAG). Voici une simplification du flux :

# Pipeline RAG simplifié - illustratif
class LLMResponsePipeline:
    def generate_response(self, user_query: str) -> Response:
        # 1. Réécriture de la requête pour le retrieval
        search_queries = self.query_rewriter.expand(user_query)
        
        # 2. Retrieval : récupération de documents pertinents
        retrieved_docs = []
        for query in search_queries:
            results = self.search_index.query(query, top_k=10)
            retrieved_docs.extend(results)
        
        # 3. Ranking et filtrage des documents
        ranked_docs = self.reranker.rank(retrieved_docs, user_query)
        context_docs = ranked_docs[:5]  # Top 5 documents
        
        # 4. Génération avec le contexte
        prompt = self.build_prompt(user_query, context_docs)
        raw_response = self.llm.generate(prompt)
        
        # 5. Post-processing : c'est ICI que les citations disparaissent
        # Le modèle a accès aux URLs dans context_docs
        # Mais le post-processing peut supprimer, reformater ou ignorer les liens
        final_response = self.post_processor.format(
            raw_response, 
            context_docs,
            citation_policy=self.config.citation_policy  # <-- le noeud du problème
        )
        
        return final_response

L'étape critique est le post-processing. Le modèle a accès aux URLs sources pendant la génération. La décision d'inclure ou non un lien cliquable dans la réponse finale est un choix de design produit, pas une limitation technique. OpenAI, Google et Anthropic font des choix différents sur la citation_policy — et ces choix impactent directement votre trafic.

Pourquoi les liens disparaissent

Trois raisons techniques expliquent les ghost citations :

1. Le modèle synthétise plutôt qu'il ne cite. Les LLM sont entraînés à produire des réponses fluides et intégrées. Insérer des liens interrompt le flux textuel. Le système de prompt interne de ChatGPT favorise la synthèse sur l'attribution.

2. La couche d'interface filtre les URLs. Même quand le modèle génère une URL dans sa réponse brute, l'interface utilisateur peut la masquer, la formater différemment ou la reléguer en bas de page où personne ne clique.

3. Les modèles sans browse n'ont pas d'URL à citer. Claude, dans sa configuration standard, répond à partir de ses données d'entraînement. Il peut "savoir" qu'un article de Moz traite du sujet, mais il n'a pas l'URL exacte — et halluciner une URL serait pire que ne pas en fournir.

Mesurer l'impact réel des ghost citations sur votre trafic

Le problème n'est pas théorique. Prenons un scénario concret.

Scénario : un SaaS B2B de 3 200 pages

Imaginez un outil de project management — appelons-le PlanForge — qui domine les requêtes comparatives dans les LLM. PlanForge est mentionné dans les réponses de ChatGPT pour "meilleur outil de gestion de projet", "alternative à Monday.com", "outil PM pour équipes remote", etc.

En analysant les logs de requêtes via les API partenaires et les données de brand monitoring, l'équipe marketing de PlanForge estime que leur marque apparaît dans ~45 000 réponses LLM par mois (toutes plateformes confondues). C'est un chiffre réaliste pour un SaaS établi dans une verticale concurrentielle.

Avec le ratio de citation moyen observé :

  • Perplexity (15% du volume, ~6 750 réponses) : ~5 400 avec lien → CTR estimé 12-18% → 650 à 970 visites
  • ChatGPT (50% du volume, ~22 500 réponses) : ~2 800 avec lien → CTR estimé 8-12% → 224 à 336 visites
  • Gemini (25% du volume, ~11 250 réponses) : ~1 700 avec lien → CTR estimé 5-10% → 85 à 170 visites
  • Claude (10% du volume, ~4 500 réponses) : ~150 avec lien → CTR estimé 3-5% → 4 à 7 visites

Total estimé : 963 à 1 483 visites/mois issues des LLM.

Mais si chaque mention était une citation avec lien, avec un CTR moyen de 10%, le trafic potentiel serait de 4 500 visites/mois. La différence — entre 3 000 et 3 500 visites mensuelles — c'est le trafic fantôme. Il n'existe dans aucun dashboard. PlanForge influence des décisions d'achat sans jamais voir un signal dans Google Analytics.

Ce que vous pouvez mesurer aujourd'hui

Vous ne pouvez pas mesurer les ghost citations directement. Mais vous pouvez les inférer par triangulation :

# 1. Monitorer le trafic direct "brand" qui ne s'explique pas par vos campagnes
# Dans GA4, créer un segment pour le trafic direct sur des landing pages non-homepage

# 2. Tracker les requêtes brand dans Search Console
# Une hausse des requêtes brand sans campagne marketing associée
# peut indiquer des mentions LLM qui poussent les utilisateurs vers Google

# Extraire les requêtes brand via l'API Search Console
curl -X POST \
  'https://www.googleapis.com/webmasters/v3/sites/https%3A%2F%2Fplanforge.io/searchAnalytics/query' \
  -H 'Authorization: Bearer YOUR_ACCESS_TOKEN' \
  -H 'Content-Type: application/json' \
  -d '{
    "startDate": "2026-03-22",
    "endDate": "2026-04-22",
    "dimensions": ["query"],
    "dimensionFilterGroups": [{
      "filters": [{
        "dimension": "query",
        "operator": "contains",
        "expression": "planforge"
      }]
    }],
    "rowLimit": 100
  }'

# 3. Comparer avec les données de mention LLM
# Outils comme Otterly.ai, Profound ou les APIs directes des LLM
# permettent de tracker vos mentions dans les réponses générées

Le signal le plus fiable : une augmentation des requêtes brand dans Search Console corrélée à une hausse des mentions LLM, sans campagne marketing expliquant cette hausse. C'est le proxy le plus proche d'un "ghost citation tracker".

Structurer votre contenu pour forcer la citation

Vous ne contrôlez pas la citation_policy des LLM. Mais vous pouvez structurer votre contenu pour maximiser la probabilité qu'un modèle RAG extraie et attribue correctement votre source.

Données structurées et citation-friendliness

Les LLM avec RAG s'appuient sur les résultats de recherche web enrichis. Un contenu bien structuré avec des données sémantiques claires a plus de chances d'être cité avec un lien, car le pipeline de retrieval conserve les métadonnées de la source.

<!-- Schema.org pour un article technique - maximiser la citation-friendliness -->
<script type="application/ld+json">
{
  "@context": "https://schema.org",
  "@type": "TechArticle",
  "headline": "Benchmark : temps de réponse API des outils PM en 2026",
  "author": {
    "@type": "Organization",
    "name": "PlanForge",
    "url": "https://planforge.io"
  },
  "publisher": {
    "@type": "Organization",
    "name": "PlanForge",
    "url": "https://planforge.io",
    "logo": {
      "@type": "ImageObject",
      "url": "https://planforge.io/logo.png"
    }
  },
  "datePublished": "2026-04-15",
  "dateModified": "2026-04-20",
  "description": "Benchmark indépendant comparant les temps de réponse API de 12 outils de project management, méthodologie et résultats bruts inclus.",
  "about": {
    "@type": "SoftwareApplication",
    "name": "PlanForge",
    "applicationCategory": "Project Management"
  },
  "citation": [
    {
      "@type": "Dataset",
      "name": "PM API Benchmark Dataset Q1 2026",
      "url": "https://planforge.io/research/pm-api-benchmark-q1-2026"
    }
  ]
}
</script>

<!-- Éléments HTML qui facilitent l'extraction RAG -->
<article>
  <h1>Benchmark : temps de réponse API des outils PM en 2026</h1>
  
  <!-- Résumé factuel en début d'article = snippet idéal pour RAG -->
  <p class="key-finding">
    <strong>Résultat clé :</strong> Sur 12 outils testés, PlanForge affiche un 
    temps de réponse API médian de 47ms (P95 : 120ms), contre une médiane 
    du marché de 230ms. Méthodologie : 10 000 requêtes/outil sur 30 jours 
    depuis 3 régions AWS.
  </p>
  
  <!-- Tables structurées = données facilement extractibles -->
  <table>
    <caption>Temps de réponse API médian (ms) - Q1 2026</caption>
    <thead>
      <tr>
        <th>Outil</th>
        <th>Médiane (ms)</th>
        <th>P95 (ms)</th>
        <th>Disponibilité (%)</th>
      </tr>
    </thead>
    <tbody>
      <tr><td>PlanForge</td><td>47</td><td>120</td><td>99.97</td></tr>
      <tr><td>Concurrent A</td><td>185</td><td>890</td><td>99.91</td></tr>
      <!-- ... -->
    </tbody>
  </table>
</article>

Trois principes techniques sous-tendent cette approche :

1. Key finding en début d'article. Les systèmes RAG extraient souvent les premiers paragraphes. Un résumé factuel dense en début de page maximise la probabilité d'extraction complète avec attribution.

2. Données tabulaires. Les LLM excellent à lire des tables HTML. Une donnée chiffrée dans un tableau a plus de chances d'être citée avec sa source qu'un chiffre noyé dans un paragraphe narratif.

3. Nom de marque co-localisé avec les données. Si "PlanForge" apparaît dans la même cellule de tableau ou le même paragraphe que le chiffre clé, le modèle associe plus fortement la donnée à la source — et a donc plus de raison de la citer.

Le pattern "citable claim"

Au-delà du schema markup, un pattern rédactionnel favorise la citation : la claim citable. C'est une phrase factuelle, auto-suffisante, qui contient à la fois la donnée et son attribution.

Mauvais : "Les temps de réponse sont rapides." Bon : "D'après le benchmark PlanForge Q1 2026, le temps de réponse API médian du marché PM est de 230ms."

La seconde formulation est un candidat naturel pour l'extraction RAG. Elle contient la source, la donnée, le contexte temporel. Un LLM qui l'extrait n'a presque pas besoin de la reformuler — et quand un modèle reformule moins, il attribue plus.

Monitorer vos ghost citations : stack technique

Le monitoring des mentions LLM est un domaine émergent. Voici une stack réaliste pour un Lead SEO qui veut tracker ce phénomène sans y passer 20 heures par semaine.

Couche 1 : détection des mentions

Plusieurs approches complémentaires :

  • APIs LLM directes : interroger régulièrement ChatGPT, Claude, Gemini et Perplexity avec vos requêtes cibles et parser les réponses pour détecter les mentions de votre marque. Automatisable avec un cron et l'API OpenAI/Anthropic.
  • Outils spécialisés GEO : Otterly.ai, Profound, ou encore le module de visibilité AI de Semrush permettent de tracker les apparitions de votre marque dans les réponses des principaux LLM.
  • Brand monitoring classique : Mention, Brandwatch — ils ne couvrent pas encore bien les LLM, mais ils captent les discussions dérivées (tweets, posts Reddit citant une réponse ChatGPT qui mentionne votre marque).

Couche 2 : corrélation avec le trafic

C'est ici que les choses deviennent intéressantes pour les équipes SEO. L'idée est de corréler les pics de mentions LLM avec les signaux de trafic.

// Script de corrélation ghost citations / trafic brand
// À exécuter quotidiennement via un job cron

interface DailyMetrics {
  date: string;
  llmMentions: number;        // Nombre de mentions détectées via l'API de monitoring
  llmCitations: number;       // Mentions avec lien cliquable
  brandSearches: number;      // Impressions brand dans Search Console
  directTraffic: number;      // Sessions trafic direct (GA4)
  brandCTR: number;           // CTR sur les requêtes brand
}

function analyzeGhostCitationImpact(
  metrics: DailyMetrics[], 
  windowDays: number = 30
): GhostCitationReport {
  
  const ghostCitations = metrics.map(m => ({
    date: m.date,
    ghostCount: m.llmMentions - m.llmCitations,
    ghostRatio: m.llmMentions > 0 
      ? (m.llmMentions - m.llmCitations) / m.llmMentions 
      : 0,
  }));

  // Corrélation entre ghost citations et hausse du trafic brand
  // Un décalage de 1-3 jours est attendu (l'utilisateur cherche la marque après)
  const correlations = [1, 2, 3].map(lag => ({
    lagDays: lag,
    correlation: pearsonCorrelation(
      ghostCitations.map(g => g.ghostCount),
      metrics.slice(lag).map(m => m.brandSearches)
    )
  }));

  // Le lag avec la meilleure corrélation indique le délai
  // entre mention LLM et recherche brand
  const bestLag = correlations.reduce((best, curr) => 
    curr.correlation > best.correlation ? curr : best
  );

  return {
    avgGhostRatio: average(ghostCitations.map(g => g.ghostRatio)),
    estimatedLostTraffic: estimateTrafficLoss(metrics),
    brandSearchCorrelation: bestLag,
    recommendations: generateRecommendations(bestLag, metrics)
  };
}

function estimateTrafficLoss(metrics: DailyMetrics[]): number {
  const avgMentions = average(metrics.map(m => m.llmMentions));
  const avgCitations = average(metrics.map(m => m.llmCitations));
  const ghostCount = avgMentions - avgCitations;
  
  // CTR estimé si les ghost citations avaient un lien
  // Basé sur le CTR observé de Perplexity (~12-18%)
  const estimatedCTR = 0.12;
  
  return Math.round(ghostCount * estimatedCTR * 30); // par mois
}

Ce type d'analyse n'est pas parfait — les données de mentions LLM sont encore approximatives — mais il donne un ordre de grandeur. Si la corrélation entre vos ghost citations et vos requêtes brand est forte avec un lag de 2 jours, vous avez la preuve que les LLM envoient du trafic indirect vers votre marque via Google, pas directement vers votre site.

Couche 3 : monitoring des régressions

Le ghost citation problem a un corollaire dangereux : vous pouvez perdre vos mentions LLM sans le savoir. Un changement de contenu, une migration technique mal gérée, ou simplement un re-training du modèle peut faire disparaître votre marque des réponses.

C'est exactement le type de régression silencieuse qu'un monitoring continu détecte. Si vos pages perdent leur schema markup, leur contenu citable, ou leur accessibilité aux crawlers AI après un déploiement, un outil comme Seogard peut alerter avant que l'impact ne se propage aux réponses des LLM. Le monitoring des logs face aux crawlers AI est le premier signal d'alerte dans cette chaîne.

Ce que chaque LLM signifie pour votre stratégie

Les quatre LLM étudiés ne sont pas interchangeables du point de vue SEO. Chacun implique une stratégie différente.

Perplexity : le seul vrai canal de trafic LLM

Perplexity cite ses sources. C'est un moteur de recherche qui utilise un LLM, pas l'inverse. Optimiser pour Perplexity ressemble à du SEO classique : assurez-vous que votre contenu est crawlable, que vos données structurées sont propres, et que vos pages rankent bien sur les requêtes informationnelles.

Le trafic Perplexity apparaît dans vos analytics avec un referrer identifiable. Vous pouvez le tracker, l'optimiser, le mesurer. C'est le seul LLM où la distinction mention/citation est résolue par design.

ChatGPT : le géant fantôme

ChatGPT domine en volume de mentions mais convertit mal en trafic. La fonctionnalité Browse with Bing ajoute parfois des liens, mais le comportement est inconsistant. La stratégie ici n'est pas de chasser le lien — c'est de maximiser la mémorabilité de la mention. Si ChatGPT dit "PlanForge est le plus rapide", l'utilisateur doit retenir "PlanForge" assez fortement pour le chercher ensuite sur Google.

Cela a des implications concrètes sur votre brand naming, votre positionnement, et la clarté de vos claims. Une marque au nom ambigu ou générique souffre plus des ghost citations qu'une marque distinctive.

Gemini : intégré mais opaque

Gemini est intégré à l'écosystème Google. Les AI Overviews dans les SERPs sont le cas d'usage principal. Ici, les citations existent sous forme de liens vers les sources dans le panneau AI Overview — mais leur visibilité dépend de l'interface. Google a tout intérêt à garder l'utilisateur sur la SERP, donc les liens sont présents mais peu mis en avant.

La stratégie : être la source de vérité que Google cite dans ses AI Overviews. Cela passe par l'autorité du domaine, la fraîcheur du contenu, et les signaux first-party que Google valorise de plus en plus.

Claude : l'influenceur sans lien

Claude ne browse pas (sauf en mode outil). Ses mentions viennent des données d'entraînement. Si Claude recommande votre produit, c'est que votre contenu était suffisamment présent et positif dans le corpus d'entraînement. Vous ne pouvez pas optimiser pour Claude de manière dynamique — mais vous pouvez vous assurer que le contenu crawlable par les scrapers d'entraînement (Common Crawl, etc.) est structuré pour les agents AI.

Les implications stratégiques pour le SEO en 2026

Le Ghost Citation Problem n'est pas juste un problème de tracking. Il redéfinit la notion même de "visibilité" en SEO.

La brand awareness redevient mesurable (différemment)

Pendant des années, le SEO a traité la brand awareness comme un effet secondaire du trafic organique. Les ghost citations inversent la causalité : la brand awareness dans les LLM génère du trafic organique brand, pas l'inverse. Les requêtes brand dans Search Console deviennent un KPI proxy pour la visibilité LLM.

Si vous observez une croissance de vos impressions brand dans Search Console de 15-20% sur un trimestre sans campagne marketing associée, les ghost citations sont une explication probable. Le monitoring des signaux d'autorité et de first-party data prend ici tout son sens.

Le contenu "citable" devient un asset stratégique

Un article de blog classique optimisé pour un mot-clé longue traîne n'a pas la même valeur dans un monde de ghost citations qu'un benchmark original avec des données propriétaires. Les LLM citent (avec ou sans lien) les contenus qui contiennent des données uniques, des claims factuelles vérifiables, des classements, des comparaisons chiffrées.

C'est un shift fondamental dans la stratégie de contenu. Le risque de la "bland tax" — produire du contenu générique qui se fond dans le bruit — est amplifié par les ghost citations. Si votre contenu est assez distinctif pour être mentionné mais pas assez mémorable pour que l'utilisateur vous cherche ensuite, vous alimentez les LLM gratuitement sans retour.

L'architecture technique au service de la citabilité

Votre stack technique influence directement votre citabilité. Un site dont le SSR est cassé, dont les données structurées sont incomplètes, ou dont le contenu est chargé en JavaScript côté client sera moins bien indexé par les crawlers des LLM — et donc moins mentionné dans les réponses.

L'architecture machine-first n'est plus un nice-to-have. C'est la condition nécessaire pour exister dans la couche de réponses des LLM. Et quand un déploiement casse votre SSR ou supprime vos schema markup, l'impact ne se limite plus au crawl Google — il se propage aux ghost citations dans tous les LLM qui utilisent le web comme source de retrieval.

Le trafic fantôme n'est pas perdu — il est invisible

Le Ghost Citation Problem n'a pas de solution technique définitive. Vous ne pouvez pas forcer ChatGPT à ajouter un lien vers votre site. Mais vous pouvez agir sur trois leviers : maximiser la citabilité de votre contenu (données structurées, claims factuelles, schema markup), tracker l'impact indirect via les requêtes brand et le trafic direct, et maintenir la santé technique de votre site pour que les crawlers AI continuent de vous indexer. Un outil de monitoring comme Seogard, combiné à une stack de tracking des mentions LLM, transforme ce trafic fantôme en un signal mesurable — imparfait, mais actionable.

Articles connexes

Actualités SEO22 avril 2026

Le 'bland tax' : pourquoi l'IA efface les marques génériques

L'IA filtre les marques sans signaux distinctifs. Analyse technique du 'bland tax' et stratégies concrètes pour rester visible dans la recherche IA.

Actualités SEO22 avril 2026

SEO reporting après Data Studio : APIs, code et workflows flexibles

Les dashboards rigides freinent le reporting SEO. APIs, AI coding tools et scripts custom remplacent Looker Studio pour des workflows plus rapides.

Actualités SEO21 avril 2026

Ce que les moteurs de recherche considèrent fiable en 2026

Autorité, fraîcheur, signaux first-party : analyse technique de ce que Google valorise vraiment et comment le prouver à grande échelle.