Share of Voice dans l'IA : mesurer la visibilité de marque dans les LLM
Le Share of Voice dans l'IA est la part des réponses LLM qui citent votre marque. Voici la formule, un plan de mesure sur 30 jours et les trois pièges qui faussent le chiffre.
Le Share of Voice (SoV) dans l'IA est le pourcentage de réponses LLM, sur un échantillon de prompts fixe, qui citent ou mentionnent votre marque. C'est l'équivalent opérationnel de la part d'impressions en recherche payante, mais l'unité devient une phrase au sein d'une réponse générée, et non un emplacement sur une page de résultats. Cet article définit la métrique, donne la formule que nous utilisons avec les marques et présente un plan de mesure sur 30 jours que vous pouvez exécuter avec ou sans outillage.
Ce que signifie « Share of Voice » à l'ère de l'IA
La métrique SoV classique vient de l'achat média. C'était le budget publicitaire ou le nombre d'impressions de votre marque, divisé par le total de la catégorie — un dénominateur propre parce que les impressions étaient facturées et comptées. Le SEO en a hérité une version plus souple : votre part de clics organiques sur un panier de mots-clés défini, avec des rank-trackers comme Ahrefs et Semrush en guise de compteur.
Le SoV à l'ère de l'IA diffère sur trois axes. L'unité passe de l'impression ou du clic à la citation ou à la mention. La surface passe d'une liste classée unique à plusieurs formats de réponse spécifiques à chaque moteur. Et le dénominateur cesse d'être un pool fini de mots-clés sur lesquels enchérir — il devient un échantillon de prompts que vous concevez, parce que la population de requêtes IA possibles est de fait infinie.
Point stratégique : le SoV IA est un problème d'échantillonnage avant d'être un problème de comptage. Avec un échantillon faux, le chiffre ne veut rien dire.
Le calcul : comment mesurer concrètement
La formule cœur a la même forme que le SoV classique, avec deux variables nouvelles.
SoV_IA = ( réponses_citant_marque / réponses_totales ) sur échantillon P, moteurs E, fenêtre W
Les quatre entrées qu'il faut figer avant que la métrique ait du sens :
| Variable | Définition | Erreur courante |
|---|---|---|
Échantillon P | Le set fixe de prompts rejoué à chaque fenêtre de mesure | Faire dériver l'échantillon de semaine en semaine rend toute tendance inexploitable |
Set de moteurs E | Les moteurs de réponse interrogés (ChatGPT, Perplexity, Gemini, Copilot...) | Publier un chiffre unique au lieu d'un chiffre par moteur |
Fenêtre W | La période couverte par l'échantillon (semaine, quinzaine, mois) | Comparer des fenêtres dont le nombre de prompts diffère |
| Règle de citation | Ce qui compte comme « cité » : note de bas de page URL, mention en texte ou les deux | Mélanger citation et mention sans étiquetage |
Une seconde métrique va de pair avec le SoV : le taux de citation, c'est-à-dire la part des réponses où votre domaine apparaît comme source numérotée ou en note (pas seulement comme mention de marque). Le benchmark HELM Lite de Stanford documente les pipelines de retrieval qui rendent citation et mention mesurablement distinctes — un modèle peut citer votre marque depuis ses données d'entraînement sans retrouver votre URL, et une URL retrouvée peut produire une réponse qui ne nomme jamais votre marque. Suivez les deux et reportez-les séparément.
Échantillonnage : les prompts comme nouvelles requêtes SERP
L'échantillon de prompts est la décision de design la plus importante. Trois propriétés déterminent si le chiffre SoV qui en sort reflète la réalité.
- Pertinence acheteur. L'échantillon doit refléter les questions que votre audience réelle pose à une IA, pas l'univers de mots-clés qu'un rank-tracker construirait. Partez des transcriptions d'appels commerciaux, des tickets support et des logs de chat. La couverture par Search Engine Land des déploiements d'AI Overview montre que les requêtes en forme de question déclenchent les surfaces de réponse IA mesurablement plus souvent que les requêtes head-term — votre échantillon doit en tenir compte.
- Mix d'intentions. Incluez des questions de définition de catégorie (« qu'est-ce que X »), des comparaisons (« X vs Y ») et des questions de recommandation (« meilleur X pour Y »). Les marques sous-comptent systématiquement les prompts de recommandation, qui sont précisément ceux où la citation se traduit en revenu.
- Taille stable. Un échantillon utile se situe entre 50 et 200 prompts par moteur. En dessous de 50, la variance est trop élevée pour détecter un mouvement ; au-dessus de 200, le coût d'étiquetage submerge la plupart des équipes internes.
Pour la majorité des marques B2B avec lesquelles nous travaillons, le set de départ adéquat est de 75 prompts : 25 questions de catégorie, 25 questions de comparaison, 25 questions de recommandation. Gardez le set constant pendant au moins huit semaines avant d'ajouter ou de faire tourner.
Trois pièges fréquents
Trois erreurs de mesure se répètent dans presque tous les dashboards SoV internes que nous auditons. Chacune transforme une courbe de tendance utile en bruit.
Piège 1 : un set de prompts trop étroit. Une équipe suit 10 prompts à forte valeur et publie le SoV chaque semaine. Le chiffre oscille de 30 points d'une semaine à l'autre parce que deux prompts ont basculé en citation, et l'équipe prend des décisions contenu sur un signal qui est essentiellement de la variance. Correction : 50 prompts minimum par moteur, figés au moins un trimestre.
Piège 2 : confondre marque et entité. « Stripe » peut apparaître comme mention verbale de l'entreprise, comme citation de stripe.com ou comme passage retrouvé dans un article tiers qui mentionne Stripe au passage. Cela fait trois choses différentes. Correction : étiquetez chaque occurrence avec mention (nom de marque en texte), citation (URL dans la liste des sources) ou passthrough (page tierce qui mentionne la marque). Reportez le taux de citation comme métrique principale, le taux de mention comme secondaire.
Piège 3 : amalgame citation/mention. Une même réponse peut citer votre domaine en pied de page tout en parlant d'un concurrent dans le corps. La compter comme « victoire » gonfle le SoV de 15 à 25 pour cent dans nos audits côté marque. Correction : exiger à la fois citation URL et mention de la marque dans le texte de la même réponse pour le palier « pleinement cité » ; suivre les cas partiels séparément. Notre article sur la façon dont les LLM choisissent leurs sources explique pourquoi ces deux chemins divergent à la couche retrieval.
Un plan de mesure pratique sur 30 jours
Une équipe sans instrumentation SoV IA peut obtenir un chiffre hebdomadaire défendable en quatre semaines. Le plan ci-dessous est celui que nous déroulons avec les nouvelles marques.
Semaine 1 — Définir l'échantillon et les moteurs. Tirez 30 prompts représentatifs des transcriptions commerciales et des logs support. Ajoutez 20 prompts de comparaison (« X vs votre leader de catégorie ») et 25 prompts de recommandation. Figez le set de moteurs sur ChatGPT, Perplexity et Gemini pour le premier trimestre ; Copilot et les moteurs verticaux viendront plus tard. Documentez la règle de citation (note URL et mention dans le texte).
Semaine 2 — Premier run de baseline. Faites passer les 75 prompts dans chaque moteur, manuellement ou via un outil. Capturez trois artefacts par prompt : le texte complet de la réponse, la liste des sources et un horodatage. Étiquetez chaque occurrence en mention, citation ou passthrough. Le premier run coûte 6 à 10 heures d'analyste pour 75 prompts sur trois moteurs.
Semaine 3 — Définir la cadence. Hebdomadaire ou bimensuelle. L'hebdomadaire capte les mouvements pilotés par Perplexity (son re-ranker s'actualise le plus vite, selon le rapport BrightEdge 2026 sur la recherche IA). La bimensuelle est plus tenable pour une opération à une personne. Fixez un jour de la semaine, un ordre de prompts et un ordre de moteurs constants pour contrôler le bruit lié au jour.
Semaine 4 — Premier point de tendance et audit des pièges. Relancez l'échantillon. Calculez le SoV par moteur, le taux de citation par moteur et un chiffre combiné (pondéré par taille) pour la vue exécutive. Auditez les étiquettes face aux trois pièges ci-dessus. Si un écart hebdomadaire dépasse 10 points, ré-étiquetez à la main pour confirmer qu'il est réel.
Après la semaine 4, la cadence tourne d'elle-même et le temps analyste se stabilise autour de 3 à 5 heures par fenêtre de mesure pour 75 prompts.
Outils et alternative sans outils
Vous pouvez exécuter la mesure SoV IA sans outil spécialisé. Un tableur, les interfaces web des trois moteurs et un protocole d'étiquetage discipliné portent une équipe pendant le premier trimestre. Le coût, une fois le workflow rodé, est d'environ une journée d'analyste par fenêtre de mesure.
Au-delà de 100 prompts et trois moteurs, la charge manuelle devient intenable. L'outillage rentabilise son coût en automatisant l'exécution des prompts, le parsing des citations et la déduplication des réponses quasi identiques entre runs. Nous avons construit Prompt Architect précisément pour ce workflow, mais le plus important reste le design de la métrique : une bonne définition de SoV est portable dans n'importe quel outil, une mauvaise reste fausse dans n'importe quel outil.
Quelques références non-PA qui publient des données SoV IA :
- Le suivi GenAI de Similarweb suit la part agrégée de referrals des moteurs IA par catégorie — y compris la croissance de +28,6 % YoY mentionnée ci-dessus.
- L'analyse douze mois des AI Overviews de BrightEdge publie les variations de visibilité par catégorie et les données de recouvrement citation-vs-organique.
- Le Web Almanac d'HTTP Archive est la référence canonique pour la baseline d'adoption des données structurées qui sous-tend le gain de citation lié au schéma.
Pour le cadre qui relie le SoV IA à la discipline de visibilité plus large, voyez notre cadre AEO vs SEO 2026, qui positionne le SoV dans l'ensemble des métriques de succès de l'économie de la réponse.
À quoi ressemble la maturité
Une pratique SoV IA mature présente trois propriétés. L'échantillon de prompts est stable et documenté. La métrique est reportée par moteur, avec une vue combinée par-dessus, et non comme un chiffre unique fusionné. Et l'équipe traite Perplexity comme indicateur avancé, ChatGPT comme signal de confirmation et Gemini comme indicateur retardé qui ferme la boucle.
Les marques qui ratent l'une des trois finissent avec un graphique qui bouge beaucoup, dit peu et se fait ignorer à la revue trimestrielle suivante. Les marques qui réunissent les trois voient la même courbe composée que les équipes SEO précoces ont vue entre 2010 et 2013 : des gains de format petits, répétables, qui s'agrègent jusqu'au leadership de catégorie au sein de la couche de réponse.
Recevoir le prochain article par e-mail
Un article ancre par semaine sur l'Answer Engine Optimization. Sans remplissage.
Related
AEO vs SEO : un cadre 2026 pour la visibilité de marque
L'AEO (Answer Engine Optimization) et le SEO résolvent des problèmes différents en 2026. Ce cadre cartographie les sept divergences, les quatre recouvrements et une matrice de décision applicable ce trimestre.
insightsComment ChatGPT, Perplexity et Gemini choisissent leurs sources
ChatGPT, Perplexity et Gemini ne retrouvent pas et ne citent pas de la même façon. Voici l'analyse moteur par moteur de la sélection des sources, et ce qui change pour la stratégie de contenu en 2026.
bestPractices5 patrons de schéma qui font citer votre contenu par l'IA (avec code)
Cinq patrons de schéma JSON-LD qui augmentent le taux de citation par les LLM, avec des exemples de code prêts pour la production pour FAQPage, HowTo, Article, Dataset et ClaimReview.