Dell vient de lâcher un chiffre qui devrait calmer l'euphorie ambiante autour de l'IA agentique : les agents IA génèrent du trafic de découverte, pas des transactions. Sur un catalogue de plus de 100 000 SKU, le search organique et le search on-site restent les canaux dominants pour le chiffre d'affaires e-commerce. Voici ce que ça implique concrètement pour votre stack technique SEO.
Ce que Dell a réellement observé (et ce que ça signifie)
L'information provient d'une intervention rapportée par Search Engine Land : l'équipe e-commerce de Dell constate une croissance du trafic issu d'agents IA (ChatGPT, Perplexity, et d'autres crawlers agentiques), mais ce trafic se comporte fondamentalement différemment du trafic search traditionnel.
Trafic de découverte vs. trafic transactionnel
Le trafic agentique se concentre sur les pages produit et les pages de catégorie — logique, les agents IA cherchent à répondre à des requêtes du type "meilleur laptop pour le montage vidéo sous 2000$". Mais le parcours s'arrête là. L'utilisateur obtient sa réponse dans l'interface de l'agent, et s'il clique, c'est pour vérifier un prix ou une spec. Le taux de conversion de ce trafic est négligeable comparé au trafic search classique.
Ce n'est pas surprenant quand on regarde les données brutes de crawl. Les bots agentiques crawlent désormais 3,6x plus que Googlebot sur certains sites, mais ce volume de requêtes ne se traduit pas en sessions à intention d'achat. C'est de l'extraction d'information, pas de la génération de demande.
Le paradoxe du trafic fantôme
Voici le problème concret : ces visites agentiques polluent vos analytics. Si vous ne segmentez pas ce trafic, vous allez observer une hausse de sessions organiques avec une baisse du taux de conversion global, ce qui fausse totalement votre attribution.
Regardez un extrait de log serveur typique d'un site e-commerce qui reçoit du trafic agentique :
# Exemples de user-agents agentiques dans les logs d'accès Nginx
# ChatGPT-User
185.XXX.XXX.42 - - [08/Apr/2026:14:22:31 +0000] "GET /laptops/xps-15-9530 HTTP/2.0" 200 48231 "-" "Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko); compatible; ChatGPT-User/1.0; +https://openai.com/bot"
# PerplexityBot
52.XXX.XXX.89 - - [08/Apr/2026:14:22:33 +0000] "GET /laptops/xps-15-9530 HTTP/2.0" 200 48231 "-" "PerplexityBot/1.0; +https://perplexity.ai/bot"
# ClaudeBot
3.XXX.XXX.17 - - [08/Apr/2026:14:22:35 +0000] "GET /servers/poweredge-r760 HTTP/2.0" 200 62104 "-" "ClaudeBot/1.0; +https://anthropic.com/bot"
La première action technique à mener : identifier et taguer ce trafic dans votre pipeline analytics. Sans ça, toute analyse de performance SEO est biaisée.
Segmenter le trafic agentique : implémentation technique
La segmentation ne se fait pas dans Google Analytics — elle se fait en amont, au niveau du serveur ou du edge. Voici une implémentation concrète.
Côté Nginx : loguer les bots agentiques séparément
# /etc/nginx/conf.d/ai-bots.conf
# Map pour identifier les bots agentiques
map $http_user_agent $is_ai_bot {
default 0;
"~*ChatGPT-User" 1;
"~*GPTBot" 1;
"~*PerplexityBot" 1;
"~*ClaudeBot" 1;
"~*anthropic-ai" 1;
"~*Google-Extended" 1;
"~*CCBot" 1;
"~*Bytespider" 1;
"~*Applebot-Extended" 1;
}
# Log format dédié avec flag bot
log_format seo_analytics '$remote_addr - $remote_user [$time_local] '
'"$request" $status $body_bytes_sent '
'"$http_referer" "$http_user_agent" '
'ai_bot=$is_ai_bot rt=$request_time';
# Fichier de log séparé pour les bots IA
access_log /var/log/nginx/ai_bots.log seo_analytics if=$is_ai_bot;
# Log principal (tout le trafic, avec le flag)
access_log /var/log/nginx/access.log seo_analytics;
Cette configuration vous donne deux choses : un fichier de log dédié aux bots IA pour l'analyse de leur comportement de crawl, et un flag ai_bot=1 dans vos logs principaux pour le filtrage dans vos outils d'analyse.
Côté GTM / analytics : dimension custom
Pour les équipes qui utilisent GA4, injectez une dimension custom via un script côté client qui détecte le referrer des agents IA :
// Détection du trafic agentique côté client
// À injecter via GTM ou directement dans le <head>
(function() {
const AI_REFERRERS = [
'chat.openai.com',
'chatgpt.com',
'perplexity.ai',
'claude.ai',
'copilot.microsoft.com',
'gemini.google.com',
'you.com'
];
const referrer = document.referrer ? new URL(document.referrer).hostname : '';
const isAiReferral = AI_REFERRERS.some(domain => referrer.includes(domain));
// Paramètre UTM artificiel pour le tracking
if (isAiReferral && typeof gtag === 'function') {
gtag('set', 'user_properties', {
'traffic_source_type': 'agentic_ai',
'ai_referrer': referrer
});
// Event custom pour le suivi
gtag('event', 'ai_agent_visit', {
'ai_source': referrer,
'landing_page': window.location.pathname,
'page_type': document.querySelector('meta[property="og:type"]')?.content || 'unknown'
});
}
})();
Limites : ce script ne capte que le trafic où le referrer est transmis. Beaucoup d'agents IA ne transmettent pas de referrer HTTP côté navigateur — d'où l'importance de combiner avec l'analyse des logs serveur. L'approche la plus fiable reste le croisement logs serveur + analytics client, pas l'un ou l'autre.
Pourquoi le search on-site est le vrai champ de bataille
L'insight le plus intéressant de Dell n'est pas sur l'IA agentique — c'est sur le search on-site. Dell affirme que l'expérience de recherche interne est le facteur n°1 de conversion e-commerce, loin devant la navigation par catégorie ou les recommandations produit.
Pour un site de 15 000+ SKU, le search on-site génère typiquement 30 à 40% du chiffre d'affaires avec seulement 10 à 15% des sessions. Le taux de conversion d'un visiteur qui utilise le search interne est 2 à 5x supérieur à celui qui navigue par menu.
L'impact SEO du search on-site
Là où ça devient critique pour le SEO technique : si votre search interne génère des URLs crawlables, vous avez un problème de thin content massif. Des milliers de pages de résultats de recherche indexées, avec du contenu dupliqué ou quasi-vide.
Vérifiez dans la Search Console le nombre de pages indexées qui contiennent /search?q= ou /s?k= dans leur URL. Sur un site Dell-like avec 100K SKU, on voit régulièrement 50 000+ URLs de recherche interne indexées par erreur.
La correction standard — mais souvent mal implémentée :
<!-- Sur TOUTES les pages de résultats de recherche interne -->
<meta name="robots" content="noindex, follow">
<!-- ET dans le robots.txt (ceinture + bretelles) -->
<!-- Attention : le robots.txt empêche le crawl, pas l'indexation -->
<!-- Les deux sont nécessaires -->
# robots.txt - bloquer le crawl des pages search internes
User-agent: *
Disallow: /search
Disallow: /s?
Disallow: /search-results
# Mais AUTORISER les bots IA à crawler les pages produit
# (c'est du trafic de découverte gratuit)
User-agent: GPTBot
Allow: /products/
Allow: /laptops/
Allow: /servers/
Disallow: /search
Disallow: /account/
Disallow: /cart/
Le piège classique : bloquer les bots IA au niveau global via robots.txt par réflexe défensif. Si Dell a raison et que l'IA agentique est un canal de découverte, vous voulez que ces bots crawlent vos pages produit — mais pas vos pages de search interne, de panier ou de compte utilisateur.
Scénario concret : un e-commerce de 18 000 pages face au trafic agentique
Prenons un cas réaliste. Un retailer tech français — 18 000 pages produit, 2 400 pages catégorie, stack Next.js avec SSR, hébergé sur Vercel. Trafic mensuel : 1,2M sessions organiques Google, taux de conversion moyen 2,1%.
Mois 1 : le trafic augmente, la conversion baisse
L'équipe observe dans GA4 : sessions organiques +12% MoM, mais revenue e-commerce +2% seulement. Le taux de conversion global passe de 2,1% à 1,88%. Le réflexe : "on a un problème de conversion". L'équipe UX lance des A/B tests sur la page produit.
Mois 2 : l'analyse des logs révèle la réalité
En croisant les logs Nginx avec les données GA4, voici ce qui apparaît :
- Trafic humain via Google Search : 1,18M sessions (+1,5%), conversion 2,15% (stable)
- Trafic agentique identifié : 47 000 sessions (+340% MoM), conversion 0,12%
- Trafic referral IA (Perplexity, ChatGPT) : 22 000 sessions, conversion 0,31%
Le trafic humain se porte très bien. C'est le trafic agentique qui dilue les métriques globales. Sans la segmentation, l'équipe aurait investi des semaines d'A/B testing pour résoudre un problème qui n'existe pas.
Impact sur le crawl budget
Autre effet de bord : les 47 000 sessions agentiques correspondent en réalité à environ 890 000 requêtes de crawl sur le mois (les bots crawlent beaucoup plus que ce qui arrive en session). Sur un site de 18 000 pages, ça représente une charge non négligeable.
Vérification rapide avec l'API Search Console pour voir si le crawl Googlebot a été impacté :
# Vérifier le taux de crawl Googlebot via les stats de crawl
# Search Console > Paramètres > Statistiques d'exploration
# Ou via l'API, récupérer les données d'exploration
curl -H "Authorization: Bearer $(gcloud auth print-access-token)" \
"https://searchconsole.googleapis.com/webmasters/v3/sites/https%3A%2F%2Fwww.votresite.fr/searchAnalytics/query" \
-d '{
"startDate": "2026-03-01",
"endDate": "2026-03-31",
"dimensions": ["page"],
"rowLimit": 10,
"dimensionFilterGroups": [{
"filters": [{
"dimension": "page",
"operator": "contains",
"expression": "/products/"
}]
}]
}'
Si le crawl rate de Googlebot baisse pendant que le crawl des bots IA augmente, vous avez un problème de bande passante serveur. La solution n'est pas de bloquer les bots IA (vous perdriez le canal de découverte), mais de dimensionner votre infrastructure ou de mettre en place du rate limiting différencié.
Pour automatiser cette surveillance, un outil comme Seogard détecte les variations anormales de crawl et les corrèle avec les changements de trafic — exactement le type de régression silencieuse que ce scénario illustre.
Structured data : le pont entre search classique et IA agentique
Si l'IA agentique est un canal de découverte, il faut maximiser la qualité de l'information que les agents extraient de vos pages. Et ça passe par le structured data — pas pour les rich snippets Google (même si c'est un bonus), mais pour la compréhension sémantique par les agents IA.
Product schema enrichi pour l'extraction agentique
Le schema Product standard que la plupart des sites implémentent est insuffisant. Un agent IA qui cherche "meilleur serveur rack 2U pour Kubernetes" a besoin de données structurées bien plus riches :
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "Product",
"name": "PowerEdge R760 Rack Server",
"sku": "PE-R760-BASE",
"gtin13": "5397184934012",
"brand": {
"@type": "Brand",
"name": "Dell Technologies"
},
"category": "Rack Servers > 2U",
"description": "Serveur rack 2U bi-processeur Intel Xeon de 4e génération, jusqu'à 8 GPU, 32 slots DIMM DDR5",
"offers": {
"@type": "Offer",
"price": "4299.00",
"priceCurrency": "EUR",
"priceValidUntil": "2026-06-30",
"availability": "https://schema.org/InStock",
"seller": {
"@type": "Organization",
"name": "Dell Technologies France"
},
"shippingDetails": {
"@type": "OfferShippingDetails",
"deliveryTime": {
"@type": "ShippingDeliveryTime",
"handlingTime": {
"@type": "QuantitativeValue",
"minValue": 3,
"maxValue": 7,
"unitCode": "d"
}
}
}
},
"additionalProperty": [
{
"@type": "PropertyValue",
"name": "Form Factor",
"value": "2U Rack"
},
{
"@type": "PropertyValue",
"name": "Max GPU Support",
"value": "8"
},
{
"@type": "PropertyValue",
"name": "Max RAM",
"value": "4TB DDR5"
},
{
"@type": "PropertyValue",
"name": "Processor Family",
"value": "Intel Xeon Scalable 4th Gen"
},
{
"@type": "PropertyValue",
"name": "Kubernetes Certified",
"value": "Yes"
}
],
"review": {
"@type": "Review",
"reviewRating": {
"@type": "Rating",
"ratingValue": "4.6",
"bestRating": "5"
},
"reviewCount": 234
}
}
</script>
Le champ additionalProperty est sous-utilisé par 90% des sites e-commerce. C'est pourtant celui qui permet aux agents IA de matcher une requête complexe avec un produit précis. L'article sur comment l'IA interprète votre contenu détaille les mécanismes de compréhension sémantique en jeu.
Product feeds et stratégie organique
Le structured data sur les pages n'est qu'une partie de l'équation. Pour les sites à gros catalogue, les product feeds optimisés pour le search organique deviennent un vecteur de visibilité dans les réponses des agents IA. Google Merchant Center, mais aussi les feeds directs vers Perplexity et ChatGPT (qui commencent à proposer des partenariats de données produit) sont des canaux à surveiller.
Le SSR reste non négociable (malgré l'IA)
Un point technique que le cas Dell rend encore plus pertinent : les agents IA crawlent le HTML brut. Ils n'exécutent pas JavaScript. Si vos pages produit dépendent du client-side rendering pour afficher les prix, les specs ou la disponibilité, les agents IA ne voient rien — et ne peuvent pas recommander vos produits.
C'est la même problématique que le crawl Googlebot d'il y a 5 ans, mais amplifiée par le nombre de bots. Google finit par exécuter le JS (avec du retard). Les bots IA, eux, ne le font jamais.
Vérification rapide avec curl pour voir ce qu'un bot IA voit de votre page :
# Simuler ce qu'un bot IA voit (pas de JS execution)
curl -s -A "GPTBot/1.0" "https://www.votresite.fr/products/serveur-r760" | \
grep -E "(price|availability|additionalProperty)" | head -20
# Comparer avec ce que le navigateur voit (après JS execution)
# Utiliser Chrome DevTools en mode "View Source" vs "Inspect"
# Si curl retourne un <div id="app"></div> vide,
# votre contenu est invisible pour les agents IA
Pour les sites en React SPA ou Vue SPA, la migration vers un framework SSR n'est plus optionnelle — c'est un prérequis pour exister à la fois dans le search Google et dans les réponses des agents IA.
Utilisez les Chrome DevTools pour auditer le rendu de vos pages : désactivez JavaScript et vérifiez que le contenu critique (prix, specs, disponibilité, structured data) est présent dans le HTML initial.
Monitoring : détecter les régressions avant qu'elles ne coûtent
Le cas Dell illustre un problème structurel : les métriques SEO classiques (positions, trafic organique, CTR) ne suffisent plus à comprendre la performance d'un site. Vous devez maintenant suivre :
- La part du trafic agentique dans vos sessions totales, et son évolution
- La couverture de crawl par les bots IA : quelles pages sont crawlées, lesquelles sont ignorées
- L'intégrité du structured data : un schema Product cassé après un déploiement front = disparition des réponses IA
- Le ratio crawl IA / crawl Google : si les bots IA consomment trop de bande passante, votre crawl budget Google peut en souffrir
Le suivi des KPIs SEO techniques doit intégrer ces nouvelles dimensions. Et l'automatisation des checks dans votre pipeline CI/CD devient critique : un déploiement qui casse le SSR d'une page produit a maintenant un double impact — search Google ET visibilité IA.
Le piège du monitoring réactif
La plupart des équipes découvrent un problème de crawl IA après coup, en analysant les logs manuellement une fois par mois. Sur un site de 18 000 pages avec des déploiements quotidiens, c'est trop tard. Un meta robots noindex ajouté par erreur sur une catégorie entière reste invisible pendant des semaines si personne ne surveille activement.
Seogard résout exactement ce cas : le monitoring continu détecte les régressions de meta tags, de structured data ou de configuration robots.txt dès qu'elles se produisent — qu'elles impactent Googlebot ou les crawlers IA.
La vision long terme : search et IA ne s'excluent pas
L'erreur serait de lire les données Dell comme "l'IA ne sert à rien". Ce n'est pas le message. Le message est : l'IA agentique est un canal de haut de funnel (découverte, comparaison, shortlisting), et le search reste le canal de bas de funnel (intention d'achat, conversion).
Sundar Pichai a lui-même décrit l'évolution de Google Search vers un rôle de gestionnaire d'agents. L'avenir probable n'est pas "IA OU search" mais "IA ET search" — avec des comportements utilisateurs différents selon la phase du parcours d'achat.
Pour les équipes SEO technique, la conséquence est claire : optimiser pour le search classique reste la priorité n°1 en termes de ROI immédiat. Mais ignorer le trafic agentique, c'est ignorer le canal de découverte qui alimentera le search de demain. Les AI Overviews de Google, malgré leurs imperfections, montrent déjà cette convergence.
Le risque de la dépendance au search seul
Dell a le luxe d'une marque forte. Pour un e-commerce mid-market avec 15 000 SKU et une notoriété limitée, le trafic de découverte via les agents IA peut devenir un levier d'acquisition de notoriété significatif. Si un agent IA recommande systématiquement vos produits dans une catégorie, le trafic branded search qui en découle quelques semaines plus tard est mesurable — et précieux.
C'est la même logique que le content marketing classique : le premier touchpoint ne convertit pas, mais il alimente le pipeline. La différence, c'est que le "contenu" ici, c'est votre structured data, votre catalogue produit bien structuré, et votre SSR fonctionnel.
Les données Dell confirment ce que les praticiens SEO soupçonnaient : l'IA agentique ne remplace pas le search, elle ajoute une couche. La réponse technique n'est pas de choisir entre les deux, mais de s'assurer que votre infrastructure technique — SSR, structured data, monitoring, segmentation analytics — est capable de servir les deux canaux sans compromis.