Un site e-commerce de 22 000 pages qui domine les SERP classiques sur ses 150 requêtes stratégiques. Zéro citation dans ChatGPT Search, deux mentions dans Gemini, aucune apparition dans les AI Overviews. Le trafic organique baisse de 18 % en six mois sans qu'aucune position classique n'ait bougé. Le problème n'est pas le ranking — c'est que les métriques traditionnelles ne capturent plus la réalité de la visibilité.
Le cadre Generative Engine Optimization (GEO) impose un changement fondamental dans ce que vous mesurez. Les 8 métriques qui suivent ne sont pas une liste théorique : ce sont les indicateurs que les équipes SEO avancées instrumentent déjà pour piloter leur visibilité dans un écosystème où les réponses AI remplacent les clics.
1. AI Citation Frequency : combien de fois votre domaine est cité
La métrique la plus directe du GEO. Elle mesure la fréquence à laquelle votre domaine ou votre marque apparaît comme source dans les réponses générées par les modèles AI (ChatGPT, Gemini, Perplexity, Copilot, AI Overviews).
La difficulté : contrairement aux SERP classiques où Search Console donne les impressions, il n'existe pas encore d'API unifiée pour tracker les citations AI. Bing Webmaster Tools a commencé à exposer l'AI Citation Share, mais c'est encore limité à l'écosystème Microsoft.
Méthode de collecte programmatique
La seule approche fiable aujourd'hui combine des requêtes systématiques aux API disponibles et un scraping structuré des réponses. Voici un script TypeScript qui interroge l'API Perplexity et extrait les citations pour un domaine donné :
import Anthropic from "@anthropic-ai/sdk";
interface CitationResult {
query: string;
cited: boolean;
position: number | null;
totalCitations: number;
snippet: string | null;
timestamp: string;
}
async function trackAICitations(
queries: string[],
targetDomain: string
): Promise<CitationResult[]> {
const results: CitationResult[] = [];
for (const query of queries) {
// Requête via l'API Perplexity (ou tout wrapper LLM avec grounding)
const response = await fetch("https://api.perplexity.ai/chat/completions", {
method: "POST",
headers: {
Authorization: `Bearer ${process.env.PERPLEXITY_API_KEY}`,
"Content-Type": "application/json",
},
body: JSON.stringify({
model: "llama-3.1-sonar-large-128k-online",
messages: [{ role: "user", content: query }],
return_citations: true,
}),
});
const data = await response.json();
const citations: string[] = data.citations || [];
const domainCitations = citations
.map((url: string, idx: number) => ({ url, position: idx + 1 }))
.filter((c: { url: string }) =>
c.url.includes(targetDomain)
);
results.push({
query,
cited: domainCitations.length > 0,
position: domainCitations.length > 0 ? domainCitations[0].position : null,
totalCitations: citations.length,
snippet: domainCitations.length > 0 ? domainCitations[0].url : null,
timestamp: new Date().toISOString(),
});
// Rate limiting respectueux
await new Promise((r) => setTimeout(r, 2000));
}
return results;
}
// Exemple : tracker 50 requêtes stratégiques pour un site e-commerce outdoor
const strategicQueries = [
"best waterproof hiking boots 2026",
"gore-tex vs proprietary membranes comparison",
"how to choose trail running shoes for overpronation",
// ... 47 autres requêtes
];
const citations = await trackAICitations(strategicQueries, "trekhausstore.com");
const citationRate = citations.filter((c) => c.cited).length / citations.length;
console.log(`Citation rate: ${(citationRate * 100).toFixed(1)}%`);
Ce que cette métrique révèle
Un taux de citation inférieur à 10 % sur vos requêtes stratégiques signifie que les modèles AI ne considèrent pas votre contenu comme une source fiable pour ces sujets. La corrélation avec le trafic classique est faible : une étude sur 500 millions de requêtes AI montre que la position classique n'est qu'un facteur parmi d'autres dans la sélection des sources par les LLM.
Cible 2026 : visez un taux de citation de 25-40 % sur vos requêtes head et 15-25 % sur la longue traîne.
2. Citation Position Index (CPI) : où vous apparaissez dans la réponse
Être cité ne suffit pas. La position de votre citation dans la réponse AI détermine la visibilité effective. Une source mentionnée en première position dans une réponse Perplexity reçoit 3 à 5 fois plus de clics que la quatrième source (observable via les referral logs Perplexity dans Google Analytics 4).
Le CPI se calcule ainsi : pour chaque requête où vous êtes cité, divisez 1 par votre position dans la liste de citations. La moyenne de ces scores donne votre CPI global.
# Citation Position Index calculator
import json
from statistics import mean
def calculate_cpi(citation_data: list[dict]) -> dict:
"""
citation_data: [{"query": "...", "cited": true, "position": 2, "total": 5}, ...]
"""
cited_entries = [e for e in citation_data if e["cited"]]
if not cited_entries:
return {"cpi": 0, "avg_position": None, "coverage": 0}
position_scores = [1 / e["position"] for e in cited_entries]
normalized_scores = [
(e["total"] - e["position"] + 1) / e["total"]
for e in cited_entries
]
return {
"cpi": round(mean(position_scores), 4),
"cpi_normalized": round(mean(normalized_scores), 4),
"avg_position": round(mean([e["position"] for e in cited_entries]), 1),
"coverage": round(len(cited_entries) / len(citation_data) * 100, 1),
"top1_rate": round(
len([e for e in cited_entries if e["position"] == 1])
/ len(citation_data) * 100, 1
),
}
# Données réelles d'un SaaS B2B tracking 200 queries
sample_data = json.loads(open("citations_may2026.json").read())
metrics = calculate_cpi(sample_data)
print(f"CPI: {metrics['cpi']} | Coverage: {metrics['coverage']}%")
print(f"Top-1 rate: {metrics['top1_rate']}% | Avg position: {metrics['avg_position']}")
Un CPI de 0.50 signifie que vous êtes en moyenne en position 2. Un CPI de 0.25 : position 4. L'objectif est de suivre cette métrique semaine par semaine pour détecter les régressions avant qu'elles n'impactent le trafic.
3. Brand Mention Sentiment dans les réponses AI
Les AI Overviews surfacent les avis négatifs sans que personne ne les cherche. Un utilisateur qui tape "meilleur CRM pour PME" peut voir apparaître "cependant, certains utilisateurs rapportent des problèmes de support chez [votre marque]" dans la réponse synthétisée.
Cette métrique mesure le sentiment net de votre marque dans les réponses AI. Les modèles ne voient pas votre marque comme un message marketing, mais comme un vecteur mathématique — et ce vecteur encode les signaux positifs et négatifs qu'ils ont ingérés pendant l'entraînement.
Comment le tracker concrètement
Interrogez systématiquement les modèles avec des requêtes de type "[votre catégorie] + avis", "[votre marque] vs [concurrent]", "problèmes avec [votre marque]". Classifiez chaque mention comme positive, neutre ou négative. Le ratio (positives - négatives) / total donne votre Brand Sentiment Score AI.
Scénario concret : un éditeur SaaS de gestion de projet avec 8 000 pages indexées découvre un Brand Sentiment Score de -0.15 dans les réponses Gemini (15 % plus de mentions négatives que positives). En analysant les sources citées, il identifie trois articles de blog tiers datant de 2023 qui décrivent des bugs corrigés depuis. Le problème n'est pas le produit actuel — c'est que le modèle a intégré ces signaux dans sa compréhension de la marque et les restitue dans ses réponses.
4. AI Crawl Budget Allocation
L'activité de crawl d'OpenAI a triplé depuis GPT-5. GPTBot, Google-Extended, ClaudeBot, PerplexityBot — chacun de ces crawlers consomme du budget serveur et indexe votre contenu selon ses propres règles. Ce que vous leur exposez détermine directement ce qu'ils savent de vous.
La métrique : le pourcentage de vos pages stratégiques effectivement crawlées par chaque bot AI sur une période de 30 jours.
Extraction depuis les logs serveur
#!/bin/bash
# ai-crawl-analysis.sh — Analyse du crawl AI depuis les access logs Nginx
LOG_FILE="/var/log/nginx/access.log"
STRATEGIC_URLS="strategic_urls.txt" # une URL par ligne
AI_BOTS="GPTBot|ClaudeBot|PerplexityBot|Google-Extended|Applebot-Extended|Amazonbot|CCBot"
echo "=== AI Crawl Budget Report — $(date +%Y-%m-%d) ==="
echo ""
# Volume de crawl par bot AI
echo "--- Crawl volume par bot (30 derniers jours) ---"
grep -E "$AI_BOTS" "$LOG_FILE" | \
grep -oP '(?<=")GPTBot|ClaudeBot|PerplexityBot|Google-Extended|Applebot-Extended|Amazonbot|CCBot' | \
sort | uniq -c | sort -rn
echo ""
# Taux de couverture des pages stratégiques
TOTAL_STRATEGIC=$(wc -l < "$STRATEGIC_URLS")
echo "--- Couverture pages stratégiques ($TOTAL_STRATEGIC URLs) ---"
for bot in GPTBot ClaudeBot PerplexityBot Google-Extended; do
CRAWLED=$(grep "$bot" "$LOG_FILE" | \
grep -oP '(?:GET|HEAD) \K[^ ]+' | \
sort -u | \
grep -cFf "$STRATEGIC_URLS")
RATE=$(echo "scale=1; $CRAWLED * 100 / $TOTAL_STRATEGIC" | bc)
echo "$bot: $CRAWLED/$TOTAL_STRATEGIC pages crawlées ($RATE%)"
done
echo ""
# Pages jamais crawlées par aucun bot AI
echo "--- Pages stratégiques non crawlées par aucun bot AI ---"
grep -E "$AI_BOTS" "$LOG_FILE" | \
grep -oP '(?:GET|HEAD) \K[^ ]+' | \
sort -u > /tmp/ai_crawled_urls.txt
grep -vFf /tmp/ai_crawled_urls.txt "$STRATEGIC_URLS" | head -20
Si GPTBot ne crawle que 35 % de vos pages produit alors que Googlebot en crawle 92 %, vous avez un problème de découvrabilité spécifique aux bots AI. Les causes courantes : votre hébergement WordPress bloque les bots AI sans que vous le sachiez, votre robots.txt exclut certains crawlers, ou votre structure de liens internes ne permet pas la découverte profonde.
5. Source Authority Score par plateforme AI
Chaque plateforme AI a sa propre logique de sélection de sources. Bing décrit explicitement que le grounding diffère de l'indexation search classique. Votre autorité perçue varie d'un modèle à l'autre.
Le Source Authority Score mesure, pour chaque plateforme, la proportion de requêtes thématiques sur lesquelles vous êtes cité parmi les 3 premières sources. Ce n'est pas une métrique que les plateformes exposent — vous devez la construire par échantillonnage.
Matrice de visibilité croisée
Construisez un tableau de bord qui croise vos requêtes stratégiques avec les plateformes :
| Requête | Google AIO | ChatGPT Search | Perplexity | Gemini |
|---|---|---|---|---|
| "meilleur outil monitoring SEO" | Cité #2 | Non cité | Cité #1 | Cité #4 |
| "détecter régression meta tags" | Non cité | Cité #3 | Non cité | Non cité |
| "SSR SEO impact" | Cité #1 | Cité #1 | Cité #2 | Non cité |
Ce mapping révèle des patterns impossibles à voir autrement. Un site peut dominer Perplexity (qui privilégie les sources récentes et bien structurées) tout en étant invisible sur Gemini (qui s'appuie davantage sur les signaux d'autorité du Knowledge Graph de Google).
Les 4 signaux qui définissent la visibilité dans la recherche AI varient en poids selon la plateforme. Tracker le Source Authority Score par plateforme permet d'identifier où concentrer vos efforts d'optimisation.
6. Content Inclusion Rate (CIR) par type de page
Toutes vos pages ne sont pas des candidates à la citation AI. Une page catégorie e-commerce a peu de chances d'être citée verbatim. Un guide technique approfondi, un benchmark comparatif, une étude de données originales — ces formats ont des CIR radicalement différents.
Le CIR mesure le pourcentage de pages d'un type donné qui ont été citées au moins une fois sur une période de 90 jours.
Scénario concret : un média tech de 12 000 pages
Un média spécialisé tech avec 12 000 articles publiés décompose son CIR par type de contenu :
- Études de données originales (180 pages) : CIR de 62 %
- Guides techniques approfondis (450 pages) : CIR de 41 %
- Comparatifs produit (320 pages) : CIR de 38 %
- Articles d'actualité (8 200 pages) : CIR de 4 %
- Pages auteur/about (150 pages) : CIR de 12 %
- Glossaire/définitions (700 pages) : CIR de 22 %
L'insight clé : les articles d'actualité représentent 68 % du contenu mais seulement 4 % de CIR. Les études de données représentent 1.5 % du contenu mais 62 % de CIR. Le ROI éditorial pour le GEO est inversement proportionnel au volume.
C'est exactement ce que montre l'analyse plus large du secteur : produire plus de contenu n'est plus un levier fiable de croissance SEO. En GEO, c'est encore plus vrai. Les modèles sélectionnent des sources sur la base de la densité informationnelle et de l'unicité des données, pas du volume.
7. AI Referral Traffic Quality
Le trafic issu des plateformes AI (identifiable via les referrers chat.openai.com, perplexity.ai, gemini.google.com, et les paramètres UTM des AI Overviews) a un profil comportemental distinct du trafic search classique.
Les métriques à isoler dans GA4 :
- Engagement rate par source AI vs search classique
- Conversion rate (micro et macro conversions)
- Pages par session
- Scroll depth (via Intersection Observer)
- Return visit rate à 7 et 30 jours
Configuration GA4 pour isoler le trafic AI
Dans Google Analytics 4, créez un segment personnalisé :
// GTM Custom JavaScript Variable — AI Traffic Detector
function() {
var referrer = document.referrer.toLowerCase();
var aiSources = [
'chat.openai.com',
'chatgpt.com',
'perplexity.ai',
'gemini.google.com',
'copilot.microsoft.com',
'claude.ai',
'you.com',
'phind.com'
];
// Détection directe par referrer
for (var i = 0; i < aiSources.length; i++) {
if (referrer.indexOf(aiSources[i]) !== -1) {
return aiSources[i].split('.').slice(-2).join('.');
}
}
// Détection des AI Overviews via paramètre URL
var urlParams = new URLSearchParams(window.location.search);
if (urlParams.get('utm_source') === 'ai_overview' ||
urlParams.get('sca_esv') || // paramètre Google AI Overview
urlParams.get('sei')) { // paramètre SGE legacy
return 'google-ai-overview';
}
return 'non-ai';
}
Attention cependant : certains trackers de visibilité AI faussent vos analytics en générant du trafic bot comptabilisé comme du trafic réel. Filtrez les user agents suspects avant d'analyser.
Pourquoi la qualité du trafic AI compte plus que le volume
Les premières données montrent que le trafic Perplexity convertit différemment du trafic Google Search. L'utilisateur arrive avec une question déjà partiellement résolue — il a lu la synthèse AI et clique sur votre lien pour approfondir un point spécifique. Ce visiteur est plus avancé dans son parcours de décision.
Pour un e-commerce B2B de fournitures industrielles (15 000 SKUs), le trafic Perplexity représente 3 % du trafic organique total mais 8 % des conversions lead qualifié. Le taux de conversion est 2.7x supérieur au trafic Google classique. Ce ratio justifie à lui seul d'investir dans l'optimisation GEO même si le volume absolu reste modeste.
8. Competitive Share of AI Voice
La dernière métrique — et la plus stratégique. Elle répond à la question : quand un utilisateur pose une question dans votre domaine d'expertise, quel pourcentage des citations revient à votre domaine vs vos concurrents ?
C'est l'équivalent GEO du "share of voice" en SEO classique, mais adapté aux réponses génératives. La différence fondamentale : en SEO classique, la position 1 prend tout sur un résultat donné. En GEO, plusieurs sources sont citées dans une même réponse, et la distribution est plus plate.
Calcul et tracking
Pour un panel de 200 requêtes stratégiques, interrogez chaque plateforme AI mensuellement. Pour chaque réponse, relevez toutes les sources citées. Agrégez par domaine.
Exemple de résultat pour un marché "outils de project management" :
| Domaine | Citations totales (200 queries × 4 plateformes) | Share of AI Voice |
|---|---|---|
| asana.com | 142 | 22.3 % |
| monday.com | 118 | 18.5 % |
| notion.so | 97 | 15.2 % |
| clickup.com | 84 | 13.2 % |
| g2.com | 73 | 11.5 % |
| votre-outil.com | 38 | 6.0 % |
| pcmag.com | 34 | 5.3 % |
| autres | 51 | 8.0 % |
Un Share of AI Voice de 6 % quand votre part de marché réelle est de 12 % indique un déficit de visibilité AI. Ce gap entre réalité business et perception AI est mesurable et corrigeable, mais seulement si vous le trackez.
Notez que des sources tierces comme g2.com apparaissent systématiquement : les agrégateurs restent fortement cités par les modèles AI, ce qui signifie que votre présence et vos avis sur ces plateformes impactent indirectement votre Share of AI Voice.
Construire votre stack de mesure GEO
Aucun outil unique ne couvre aujourd'hui les 8 métriques. La réalité du terrain en mai 2026 impose une stack composite :
Couche 1 : Collecte de données
- Perplexity API (avec
return_citations: true) pour le tracking systématique des citations - Bing Webmaster Tools pour les données AI Citation Share côté Microsoft/Copilot
- Google Search Console pour les données AI Overviews (encore partielles, cf. les problèmes de logging récemment corrigés)
- Logs serveur analysés via ELK stack ou un script custom pour le crawl budget AI
- Screaming Frog configuré avec un custom user agent pour simuler le crawl AI et identifier les pages bloquées
Couche 2 : Monitoring continu
Les métriques GEO sont volatiles. Une mise à jour du modèle peut faire disparaître vos citations en 48h. Un outil de monitoring comme Seogard permet de détecter ces régressions en temps réel — si votre citation rate chute de 30 % à 8 % sur un cluster de requêtes, vous devez le savoir avant que l'impact business ne soit visible dans GA4 trois semaines plus tard.
Couche 3 : Analyse et action
Le pipeline à 10 étapes pour diagnostiquer où votre contenu échoue dans la chaîne AI reste le meilleur framework pour transformer ces métriques en actions correctives. Chaque métrique GEO pointe vers un gate spécifique du pipeline :
- Citation Frequency faible → problème de découvrabilité ou d'autorité perçue (gates 1-3)
- CPI bas → contenu cité mais pas considéré comme source primaire (gates 4-6)
- Sentiment négatif → signaux négatifs non gérés dans le corpus d'entraînement (gate 7)
- CIR faible → format de contenu inadapté au grounding AI (gates 8-9)
Les limites à connaître
Trois caveats importants avant de bâtir votre reporting GEO :
La reproductibilité est imparfaite. Une même requête envoyée à ChatGPT à deux heures d'intervalle peut retourner des citations différentes. Le CPI et le Citation Rate sont des métriques statistiques — elles ont besoin d'un volume d'échantillonnage suffisant (minimum 100 requêtes, idéalement 500+) pour être fiables.
Le coût de collecte est réel. Tracker 500 requêtes × 4 plateformes × 4 fois par mois = 8 000 appels API. À ~$0.005 par requête Perplexity, c'est $40/mois en API seul. Pour un site enterprise avec 2 000 requêtes stratégiques, le budget grimpe. Construire pour les agents AI, pas seulement les humains, a un coût d'infrastructure qu'il faut budgéter.
Les métriques GEO ne remplacent pas les métriques SEO classiques. Les AI Overviews apparaissent sur environ 15-30 % des requêtes selon les secteurs. Pour les 70 % restants, le ranking classique reste le jeu. Le CTR des AI Overviews montre des signes de stabilisation, ce qui confirme que les deux systèmes vont coexister durablement.
Wrap-up
Le GEO n'est pas un remplacement du SEO — c'est une couche de mesure supplémentaire qui capture la visibilité dans les canaux où vos métriques classiques sont aveugles. Ces 8 métriques (Citation Frequency, CPI, Brand Sentiment AI, AI Crawl Budget, Source Authority Score, Content Inclusion Rate, AI Referral Quality, Share of AI Voice) forment le socle minimum pour piloter votre présence dans un écosystème search fragmenté. Commencez par les deux plus actionnables — Citation Frequency et AI Crawl Budget — et automatisez la collecte avec Seogard ou votre stack de monitoring pour détecter les régressions avant qu'elles ne deviennent des pertes de revenus.