Bonnes pratiques

Share of Voice dans l'IA : mesurer la visibilité de marque dans les LLM

Le Share of Voice dans l'IA est la part des réponses LLM qui citent votre marque. Voici la formule, un plan de mesure sur 30 jours et les trois pièges qui faussent le chiffre.

Mark KimMark Kim12 min read

Le Share of Voice (SoV) dans l'IA est le pourcentage de réponses LLM, sur un échantillon de prompts fixe, qui citent ou mentionnent votre marque. C'est l'équivalent opérationnel de la part d'impressions en recherche payante, mais l'unité devient une phrase au sein d'une réponse générée, et non un emplacement sur une page de résultats. Cet article définit la métrique, donne la formule que nous utilisons avec les marques et présente un plan de mesure sur 30 jours que vous pouvez exécuter avec ou sans outillage.

Ce que signifie « Share of Voice » à l'ère de l'IA

La métrique SoV classique vient de l'achat média. C'était le budget publicitaire ou le nombre d'impressions de votre marque, divisé par le total de la catégorie — un dénominateur propre parce que les impressions étaient facturées et comptées. Le SEO en a hérité une version plus souple : votre part de clics organiques sur un panier de mots-clés défini, avec des rank-trackers comme Ahrefs et Semrush en guise de compteur.

Le SoV à l'ère de l'IA diffère sur trois axes. L'unité passe de l'impression ou du clic à la citation ou à la mention. La surface passe d'une liste classée unique à plusieurs formats de réponse spécifiques à chaque moteur. Et le dénominateur cesse d'être un pool fini de mots-clés sur lesquels enchérir — il devient un échantillon de prompts que vous concevez, parce que la population de requêtes IA possibles est de fait infinie.

+28,6 %croissance annuelle des visites des plateformes IA vers les sites tiers (US, janvier 2025 → janvier 2026)Suivi GenAI de Similarweb, mise à jour janvier 2026

Point stratégique : le SoV IA est un problème d'échantillonnage avant d'être un problème de comptage. Avec un échantillon faux, le chiffre ne veut rien dire.

Le calcul : comment mesurer concrètement

La formule cœur a la même forme que le SoV classique, avec deux variables nouvelles.

SoV_IA = ( réponses_citant_marque / réponses_totales ) sur échantillon P, moteurs E, fenêtre W

Les quatre entrées qu'il faut figer avant que la métrique ait du sens :

VariableDéfinitionErreur courante
Échantillon PLe set fixe de prompts rejoué à chaque fenêtre de mesureFaire dériver l'échantillon de semaine en semaine rend toute tendance inexploitable
Set de moteurs ELes moteurs de réponse interrogés (ChatGPT, Perplexity, Gemini, Copilot...)Publier un chiffre unique au lieu d'un chiffre par moteur
Fenêtre WLa période couverte par l'échantillon (semaine, quinzaine, mois)Comparer des fenêtres dont le nombre de prompts diffère
Règle de citationCe qui compte comme « cité » : note de bas de page URL, mention en texte ou les deuxMélanger citation et mention sans étiquetage

Une seconde métrique va de pair avec le SoV : le taux de citation, c'est-à-dire la part des réponses où votre domaine apparaît comme source numérotée ou en note (pas seulement comme mention de marque). Le benchmark HELM Lite de Stanford documente les pipelines de retrieval qui rendent citation et mention mesurablement distinctes — un modèle peut citer votre marque depuis ses données d'entraînement sans retrouver votre URL, et une URL retrouvée peut produire une réponse qui ne nomme jamais votre marque. Suivez les deux et reportez-les séparément.

Échantillonnage : les prompts comme nouvelles requêtes SERP

L'échantillon de prompts est la décision de design la plus importante. Trois propriétés déterminent si le chiffre SoV qui en sort reflète la réalité.

  1. Pertinence acheteur. L'échantillon doit refléter les questions que votre audience réelle pose à une IA, pas l'univers de mots-clés qu'un rank-tracker construirait. Partez des transcriptions d'appels commerciaux, des tickets support et des logs de chat. La couverture par Search Engine Land des déploiements d'AI Overview montre que les requêtes en forme de question déclenchent les surfaces de réponse IA mesurablement plus souvent que les requêtes head-term — votre échantillon doit en tenir compte.
  2. Mix d'intentions. Incluez des questions de définition de catégorie (« qu'est-ce que X »), des comparaisons (« X vs Y ») et des questions de recommandation (« meilleur X pour Y »). Les marques sous-comptent systématiquement les prompts de recommandation, qui sont précisément ceux où la citation se traduit en revenu.
  3. Taille stable. Un échantillon utile se situe entre 50 et 200 prompts par moteur. En dessous de 50, la variance est trop élevée pour détecter un mouvement ; au-dessus de 200, le coût d'étiquetage submerge la plupart des équipes internes.

Pour la majorité des marques B2B avec lesquelles nous travaillons, le set de départ adéquat est de 75 prompts : 25 questions de catégorie, 25 questions de comparaison, 25 questions de recommandation. Gardez le set constant pendant au moins huit semaines avant d'ajouter ou de faire tourner.

Trois pièges fréquents

Trois erreurs de mesure se répètent dans presque tous les dashboards SoV internes que nous auditons. Chacune transforme une courbe de tendance utile en bruit.

Piège 1 : un set de prompts trop étroit. Une équipe suit 10 prompts à forte valeur et publie le SoV chaque semaine. Le chiffre oscille de 30 points d'une semaine à l'autre parce que deux prompts ont basculé en citation, et l'équipe prend des décisions contenu sur un signal qui est essentiellement de la variance. Correction : 50 prompts minimum par moteur, figés au moins un trimestre.

Piège 2 : confondre marque et entité. « Stripe » peut apparaître comme mention verbale de l'entreprise, comme citation de stripe.com ou comme passage retrouvé dans un article tiers qui mentionne Stripe au passage. Cela fait trois choses différentes. Correction : étiquetez chaque occurrence avec mention (nom de marque en texte), citation (URL dans la liste des sources) ou passthrough (page tierce qui mentionne la marque). Reportez le taux de citation comme métrique principale, le taux de mention comme secondaire.

Piège 3 : amalgame citation/mention. Une même réponse peut citer votre domaine en pied de page tout en parlant d'un concurrent dans le corps. La compter comme « victoire » gonfle le SoV de 15 à 25 pour cent dans nos audits côté marque. Correction : exiger à la fois citation URL et mention de la marque dans le texte de la même réponse pour le palier « pleinement cité » ; suivre les cas partiels séparément. Notre article sur la façon dont les LLM choisissent leurs sources explique pourquoi ces deux chemins divergent à la couche retrieval.

Un plan de mesure pratique sur 30 jours

Une équipe sans instrumentation SoV IA peut obtenir un chiffre hebdomadaire défendable en quatre semaines. Le plan ci-dessous est celui que nous déroulons avec les nouvelles marques.

Semaine 1 — Définir l'échantillon et les moteurs. Tirez 30 prompts représentatifs des transcriptions commerciales et des logs support. Ajoutez 20 prompts de comparaison (« X vs votre leader de catégorie ») et 25 prompts de recommandation. Figez le set de moteurs sur ChatGPT, Perplexity et Gemini pour le premier trimestre ; Copilot et les moteurs verticaux viendront plus tard. Documentez la règle de citation (note URL et mention dans le texte).

Semaine 2 — Premier run de baseline. Faites passer les 75 prompts dans chaque moteur, manuellement ou via un outil. Capturez trois artefacts par prompt : le texte complet de la réponse, la liste des sources et un horodatage. Étiquetez chaque occurrence en mention, citation ou passthrough. Le premier run coûte 6 à 10 heures d'analyste pour 75 prompts sur trois moteurs.

Semaine 3 — Définir la cadence. Hebdomadaire ou bimensuelle. L'hebdomadaire capte les mouvements pilotés par Perplexity (son re-ranker s'actualise le plus vite, selon le rapport BrightEdge 2026 sur la recherche IA). La bimensuelle est plus tenable pour une opération à une personne. Fixez un jour de la semaine, un ordre de prompts et un ordre de moteurs constants pour contrôler le bruit lié au jour.

Semaine 4 — Premier point de tendance et audit des pièges. Relancez l'échantillon. Calculez le SoV par moteur, le taux de citation par moteur et un chiffre combiné (pondéré par taille) pour la vue exécutive. Auditez les étiquettes face aux trois pièges ci-dessus. Si un écart hebdomadaire dépasse 10 points, ré-étiquetez à la main pour confirmer qu'il est réel.

Après la semaine 4, la cadence tourne d'elle-même et le temps analyste se stabilise autour de 3 à 5 heures par fenêtre de mesure pour 75 prompts.

Outils et alternative sans outils

Vous pouvez exécuter la mesure SoV IA sans outil spécialisé. Un tableur, les interfaces web des trois moteurs et un protocole d'étiquetage discipliné portent une équipe pendant le premier trimestre. Le coût, une fois le workflow rodé, est d'environ une journée d'analyste par fenêtre de mesure.

Au-delà de 100 prompts et trois moteurs, la charge manuelle devient intenable. L'outillage rentabilise son coût en automatisant l'exécution des prompts, le parsing des citations et la déduplication des réponses quasi identiques entre runs. Nous avons construit Prompt Architect précisément pour ce workflow, mais le plus important reste le design de la métrique : une bonne définition de SoV est portable dans n'importe quel outil, une mauvaise reste fausse dans n'importe quel outil.

Quelques références non-PA qui publient des données SoV IA :

Pour le cadre qui relie le SoV IA à la discipline de visibilité plus large, voyez notre cadre AEO vs SEO 2026, qui positionne le SoV dans l'ensemble des métriques de succès de l'économie de la réponse.

À quoi ressemble la maturité

Une pratique SoV IA mature présente trois propriétés. L'échantillon de prompts est stable et documenté. La métrique est reportée par moteur, avec une vue combinée par-dessus, et non comme un chiffre unique fusionné. Et l'équipe traite Perplexity comme indicateur avancé, ChatGPT comme signal de confirmation et Gemini comme indicateur retardé qui ferme la boucle.

Les marques qui ratent l'une des trois finissent avec un graphique qui bouge beaucoup, dit peu et se fait ignorer à la revue trimestrielle suivante. Les marques qui réunissent les trois voient la même courbe composée que les équipes SEO précoces ont vue entre 2010 et 2013 : des gains de format petits, répétables, qui s'agrègent jusqu'au leadership de catégorie au sein de la couche de réponse.

Cite as

Recevoir le prochain article par e-mail

Un article ancre par semaine sur l'Answer Engine Optimization. Sans remplissage.

Related