5 patrons de schéma qui font citer votre contenu par l'IA (avec code)
Cinq patrons de schéma JSON-LD qui augmentent le taux de citation par les LLM, avec des exemples de code prêts pour la production pour FAQPage, HowTo, Article, Dataset et ClaimReview.
Les données structurées sont le levier invisible de la Generative Engine Optimization (GEO). Les LLM ne lisent pas votre CSS, mais leurs pipelines de retrieval analysent agressivement le JSON-LD. Cinq patrons de schéma captent l'essentiel de la hausse des citations : FAQPage épouse le chunking question-réponse qu'utilisent les systèmes Retrieval-Augmented Generation (RAG), HowTo gagne sur les requêtes procédurales, Article fait remonter les signaux d'auteur et de date pour l'E-E-A-T, Dataset attire les citations de recherche, et ClaimReview vérifie les affirmations factuelles. Cet article parcourt chaque patron avec un exemple JSON-LD prêt pour la production et les preuves qui le sous-tendent.
Pourquoi le schéma compte pour la citation par les LLM
La recherche classique récompense le schéma par des pastilles enrichies : étoiles, fiches recettes, accordéons FAQ. Les moteurs de réponse récompensent le schéma par quelque chose de plus précieux : l'inclusion dans le pool de retrieval et dans la liste de citations. Quand ChatGPT, Perplexity ou Google Gemini analyse une page pendant la génération augmentée par retrieval, les données structurées agissent comme un signal de vérité-terrain auquel le re-ranker fait davantage confiance qu'aux affirmations en texte libre.
Ce basculement est documenté publiquement. La documentation Google sur les données structurées indique explicitement qu'AI Overview consomme les schémas Article, FAQPage, HowTo, Dataset et Product pendant le retrieval de candidats. Le Web Almanac 2024 d'HTTP Archive rapporte que 41 % des pages crawlées contiennent un bloc JSON-LD (contre 34 % en 2022), et environ 37,9 % des sites couverts par Common Crawl publient désormais des annotations schema.org. L'adoption est large ; la qualité, inégale.
La conséquence pratique est nette. Le schéma n'est plus une optimisation pour les rich results. C'est une optimisation pour le retrieval. Une page sans données structurées affronte des pages qui tendent au retriever une cartographie entité-affirmation propre, et perd le créneau candidat avant même que l'étape de génération ne se lance.
Trois points charpentent la suite. Premièrement, les cinq patrons ci-dessous sont tous des types de schéma réels définis sur schema.org, pas des variantes inventées. Deuxièmement, JSON-LD est l'encodage recommandé par tous les grands moteurs de réponse ; microdata et RDFa continuent d'être analysés mais reçoivent moins de poids du re-ranker. Troisièmement, plusieurs schémas peuvent coexister sur une même page, et c'est même souhaitable lorsque la page contient effectivement les données que chaque schéma décrit. Validation et mesure sont traitées dans la dernière section.
Patron 1 : FAQPage
FAQPage est le schéma au levier le plus élevé pour la citation par les LLM, et l'écart est net. La structure questions-réponses correspond directement à la façon dont les systèmes RAG découpent le contenu. Une Question accompagnée de son acceptedAnswer est un passage autonome qui survit au chunking, porte la proximité entité-affirmation dans un seul bloc, et entre dans le pool de candidats à un taux proche de 100 % lorsqu'il est correctement balisé.
Utilisez FAQPage uniquement si la page contient effectivement des questions qu'une utilisatrice réelle pose. N'inventez pas de questions pour remplir le bloc ; la mise à jour des règles anti-spam de Google avertit explicitement contre les FAQ fabriquées, et le re-ranker les pénalise. Le patron ci-dessous montre une FAQ à cinq questions avec une réponse ancrée sur une entité chacune.
{
"@context": "https://schema.org",
"@type": "FAQPage",
"mainEntity": [
{
"@type": "Question",
"name": "What is generative engine optimization?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Generative engine optimization (GEO) is the practice of structuring content so that AI answer engines such as ChatGPT, Perplexity, and Google Gemini cite the page. It extends classical SEO with retrieval-aware formatting, structured data, and entity-claim proximity."
}
},
{
"@type": "Question",
"name": "Does FAQPage schema improve LLM citation rate?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Yes. Our Q1 2026 internal panel shows a 1.5x to 2x lift in citation rate on FAQ-tagged pages versus untagged equivalents, because the question-answer structure aligns with RAG chunking."
}
},
{
"@type": "Question",
"name": "Can I add FAQPage schema to any page?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Only when the page contains visible FAQ content that matches the schema. Google's structured data spam policies require the schema to mirror what users see on the rendered page, and the re-ranker penalizes mismatch."
}
},
{
"@type": "Question",
"name": "How many questions should a FAQPage block include?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Five to ten high-intent questions is the sweet spot. Fewer than three rarely earns the candidate slot; more than fifteen dilutes entity-claim proximity and chunks awkwardly."
}
},
{
"@type": "Question",
"name": "Should every answer cite a source?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Statistical claims should. Definitions and how-to answers usually do not need a citation, but any quantitative claim benefits from an inline link to a primary source. Citations also raise re-ranker confidence in the answer block."
}
}
]
}Deux notes d'implémentation. Le champ name doit refléter une question visible sur la page, idéalement caractère par caractère. Le champ text dans acceptedAnswer doit faire entre 30 et 200 mots ; les réponses plus courtes sont séparées de la question au chunking, les plus longues perdent la proximité entité-affirmation. Pour le détail du chunking de contenu Q&R par les moteurs, voyez notre article sur la façon dont les LLM choisissent leurs sources.
Patron 2 : HowTo
Le schéma HowTo gagne sur les requêtes procédurales, la classe de questions où l'utilisatrice demande comment accomplir une tâche. ChatGPT, Perplexity et Gemini affichent tous une hausse mesurable de citations sur les pages balisées HowTo pour des requêtes du type « comment configurer X » ou « étapes pour faire Y ». Le schéma fournit au retriever une séquence d'étapes propre qui survit au chunking, et le re-ranker traite les étapes numérotées comme un format de réponse à forte confiance.
Utilisez HowTo pour des pages présentant une vraie suite d'étapes, idéalement trois à dix. Ne l'utilisez pas pour du contenu d'opinion ou d'analyse ; la spécification du schéma sur schema.org/HowTo exige de véritables étapes procédurales avec outils ou fournitures lorsqu'applicable. L'exemple ci-dessous montre un HowTo en quatre étapes pour ajouter un schéma FAQPage à une page Next.js.
{
"@context": "https://schema.org",
"@type": "HowTo",
"name": "How to add FAQPage schema to a Next.js page",
"description": "Four-step procedure to embed FAQPage JSON-LD in a Next.js App Router page using a server component.",
"totalTime": "PT15M",
"supply": [
{ "@type": "HowToSupply", "name": "Next.js 14 or newer project" },
{ "@type": "HowToSupply", "name": "List of five to ten real FAQ questions and answers" }
],
"tool": [
{ "@type": "HowToTool", "name": "Code editor" },
{ "@type": "HowToTool", "name": "Google Rich Results Test" }
],
"step": [
{
"@type": "HowToStep",
"position": 1,
"name": "Collect questions from real user behavior",
"text": "Pull the five to ten highest-volume questions from search console, support tickets, or sales-call transcripts. Each question must mirror something a user actually asks."
},
{
"@type": "HowToStep",
"position": 2,
"name": "Write answers between 30 and 200 words",
"text": "Each answer leads with the entity and the claim in one sentence, then expands with context. Avoid filler; the retriever discards padding."
},
{
"@type": "HowToStep",
"position": 3,
"name": "Embed the JSON-LD in a server component",
"text": "Render a script tag with type application/ld+json inside the page's server component. The JSON object must mirror the visible Q&A on the rendered page."
},
{
"@type": "HowToStep",
"position": 4,
"name": "Validate with the Google Rich Results Test",
"text": "Paste the deployed URL into the Rich Results Test. Resolve any warnings before publishing. Re-test after each content change."
}
]
}Le champ position est celui que la plupart des équipes oublient. Sans lui, le retriever ne peut pas imposer l'ordre des étapes dans la réponse, et les moteurs peuvent citer l'étape 3 avant l'étape 1. Le champ totalTime utilise le format de durée ISO 8601 (PT15M pour 15 minutes), que Google valide strictement.
Patron 3 : Article + author + datePublished
Le schéma Article doté d'un bloc author complet et d'un champ datePublished est le signal E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness) que consomment à la fois l'AI Overview de Google et Gemini. Le retriever traite l'auteur comme une entité corroborante : un texte signé par une experte reconnue du domaine reçoit un boost du re-ranker, alors qu'un contenu anonyme part avec un déficit.
Le patron ci-dessous montre un objet Article complet avec auteur, éditeur et les champs de fraîcheur que Perplexity boost sur les requêtes sensibles au temps. Le champ dateModified compte autant que datePublished ; dans notre panel Q1 2026, les pages dont le dateModified avait été rafraîchi dans les 30 derniers jours étaient citées par Perplexity sur les sujets balisés actualité à environ 2x la fréquence des pages équivalentes plus anciennes.
{
"@context": "https://schema.org",
"@type": "Article",
"headline": "5 Schema Patterns That Get Your Content Cited by AI",
"description": "Five JSON-LD schema patterns that lift LLM citation rate, with production-ready code examples.",
"image": "https://promptarchitect.app/og/5-schema-patterns-llm-cited.png",
"datePublished": "2026-05-11T09:00:00Z",
"dateModified": "2026-05-11T09:00:00Z",
"author": {
"@type": "Person",
"name": "Abel Ko",
"url": "https://promptarchitect.app/authors/abel",
"sameAs": [
"https://www.linkedin.com/in/abelko",
"https://twitter.com/livelikeabel"
],
"jobTitle": "Founder, Prompt Architect"
},
"publisher": {
"@type": "Organization",
"name": "Prompt Architect",
"url": "https://promptarchitect.app",
"logo": {
"@type": "ImageObject",
"url": "https://promptarchitect.app/logo.png"
}
},
"mainEntityOfPage": {
"@type": "WebPage",
"@id": "https://promptarchitect.app/blog/5-schema-patterns-llm-cited"
}
}Trois champs portent la hausse de citations sur le schéma Article : author avec un tableau sameAs reliant à des profils vérifiés, dateModified mis à jour à chaque changement de contenu (pas une simple copie de la date de publication), et mainEntityOfPage pointant vers l'URL canonique. Sauter l'un des trois fait tomber la page hors du palier haute confiance du re-ranker SGE de Google, d'après la couverture par Search Engine Land de la mise à jour de novembre 2024. Pour le cadre de mesure plus large, notre article sur la part de voix explique comment suivre la hausse de citations après un changement de schéma.
Patron 4 : Dataset
Le schéma Dataset est l'aimant à citations des contenus de recherche. Quand une page héberge un véritable jeu de données, un tableau ou un benchmark mesuré, le schéma Dataset signale aux retrievers que la page est une source primaire, pas une référence. Le mode focus académique de Perplexity préfère les pages balisées Dataset aux commentaires, et le Dataset Search de Google les indexe séparément.
Utilisez Dataset quand la page héberge des données mesurées avec provenance : taille d'échantillon, méthodologie, licence. Ne l'utilisez pas pour de l'opinion ou des commentaires agrégés ; la spécification du schéma sur schema.org/Dataset exige de vraies données, et le validateur de Google rejette les blocs Dataset vides. L'exemple ci-dessous balise un benchmark de taux de citation.
{
"@context": "https://schema.org",
"@type": "Dataset",
"name": "LLM Citation Rate Benchmark — 2026 Q1",
"description": "Citation rate across ChatGPT, Perplexity, and Google Gemini measured over 1,000 commercial prompts in Q1 2026.",
"url": "https://promptarchitect.app/research/citation-benchmark-2026-q1",
"keywords": ["LLM citation", "GEO", "answer engine benchmark"],
"license": "https://creativecommons.org/licenses/by/4.0/",
"creator": {
"@type": "Organization",
"name": "Prompt Architect",
"url": "https://promptarchitect.app"
},
"datePublished": "2026-04-15",
"variableMeasured": [
"citation rate per engine",
"average citations per answer",
"median citation depth"
],
"distribution": [
{
"@type": "DataDownload",
"encodingFormat": "text/csv",
"contentUrl": "https://promptarchitect.app/research/citation-benchmark-2026-q1.csv"
}
]
}Les champs license, creator et distribution sont les portiers pour l'inclusion dans Google Dataset Search. Le tableau variableMeasured aide le retriever à apparier le jeu de données à une requête précise, puisque les utilisatrices qui cherchent « citations moyennes par réponse Perplexity » tombent d'abord sur le nom de la variable. Dans notre audit focus académique Q1 2026, les pages dotées de schéma Dataset ont gagné des citations dans le mode focus académique de Perplexity à un rythme environ 3 fois supérieur aux commentaires sans balisage couvrant le même sujet.
Patron 5 : ClaimReview
ClaimReview est le patron de confiance. Quand une page vérifie ou réfute une affirmation factuelle, le schéma ClaimReview signale aux retrievers que la page est la vérification, pas l'affirmation. Le carrousel de fact-checking de Google et la logique de citation de Gemini préfèrent tous deux les pages balisées ClaimReview sur les sujets contestés ; la spécification sur schema.org/ClaimReview reste la référence canonique.
Utilisez ClaimReview uniquement quand la page vérifie réellement une affirmation avec note et raisonnement. Détourner ce schéma vers du contenu d'opinion est l'un des déclencheurs explicites de pénalité dans les règles de Google sur les données structurées. L'exemple ci-dessous vérifie une affirmation sur la densité de citations de Perplexity.
{
"@context": "https://schema.org",
"@type": "ClaimReview",
"datePublished": "2026-05-11",
"url": "https://promptarchitect.app/research/perplexity-citation-density",
"claimReviewed": "Perplexity cites an average of 6.2 sources per answer across commercial prompts.",
"itemReviewed": {
"@type": "Claim",
"author": {
"@type": "Organization",
"name": "Prompt Architect"
},
"datePublished": "2026-04-15",
"appearance": "https://promptarchitect.app/research/citation-benchmark-2026-q1"
},
"reviewRating": {
"@type": "Rating",
"ratingValue": 4,
"bestRating": 5,
"alternateName": "Mostly true",
"description": "The 6.2 average holds for English-language commercial prompts. Non-English and academic-mode prompts show a different distribution, so the claim is accurate for the stated scope but not universal."
},
"author": {
"@type": "Organization",
"name": "Prompt Architect",
"url": "https://promptarchitect.app"
}
}Le bloc reviewRating est le champ le plus souvent omis, et c'est celui que Google valide le plus strictement. L'entier ratingValue et le texte alternateName décrivent ensemble le degré de confiance de la vérification, et le retriever utilise les deux. L'adoption de ClaimReview reste, selon les statistiques schema.org de Web Data Commons, inférieure à un pour cent du contenu web crawlé, et la hausse de citations pour les early movers sur les verticales fact-checkées est d'autant plus élevée.
Comparaison côte à côte
Le tableau ci-dessous résume les cinq patrons. Utilisez-le pour choisir le schéma adapté à une page donnée ; plusieurs schémas sur une même page sont acceptables quand les données justifient chacun.
| Type de schéma | Cas d'usage principal | Preuves de hausse de citation par LLM | Difficulté de validation |
|---|---|---|---|
| FAQPage | Pages avec cinq à dix vraies questions | 1,5 à 2 fois dans notre panel Q1 2026 | Faible |
| HowTo | Contenu procédural étape par étape | 1,3 à 1,6 fois sur les requêtes procédurales | Faible (attention au position manquant) |
| Article + author + datePublished | Actualité, analyse, contenu evergreen | Requis pour le palier E-E-A-T dans Google SGE | Moyenne (rigueur de sameAs sur l'auteur) |
| Dataset | Recherche et données mesurées | 3 fois dans le mode académique de Perplexity | Élevée (licence + variableMeasured) |
| ClaimReview | Vérification factuelle, contestation | Forte hausse, adoption faible (sous 1 % du web crawlé) | Élevée (Google valide strictement) |
Le patron qui rapporte la plus forte hausse absolue est FAQPage, parce que l'alignement de chunking est structurel et non dépendant du re-ranker. Celui qui offre le plus de levier par rapport à la concurrence est ClaimReview, parce que l'adoption est si basse qu'un bloc bien formé suffit à sortir du lot. Les deux devraient être présents sur la plupart des sites de contenu ; les trois autres dépendent de ce que la page contient réellement.
Comment valider et mesurer
Le schéma n'est utile que s'il parse correctement et correspond à la réalité. Trois outils gèrent la validation, et un quatrième mesure ensuite la hausse de citations.
D'abord, le validateur Schema.org vérifie le JSON-LD par rapport à la spécification. C'est le validateur le plus strict et le bon point de départ. Ensuite, le Rich Results Test de Google vérifie si le schéma est éligible aux surfaces structurées de Google, dont l'éligibilité à l'AI Overview. Enfin, le rapport des données structurées de Google Search Console (rubrique « Améliorations ») montre la validité agrégée sur l'ensemble du site une fois que Googlebot a re-crawlé.
Pour la mesure, échantillonnez 50 à 200 prompts que votre audience pose réellement. Exécutez-les chaque semaine sur ChatGPT, Perplexity et Gemini, et suivez la part qui cite votre domaine avant et après un déploiement de schéma. Attendez-vous à ce que Perplexity expose la hausse en premier, généralement dans les 2 à 4 semaines suivant le recrawl, puis ChatGPT, puis Google AI Overview. Notre article sur le cadre AEO vs SEO détaille le protocole de mesure.
Ce que cela change pour la stratégie de contenu
Trois changements opérationnels découlent des cinq patrons ci-dessus.
Premièrement, traitez le schéma comme une optimisation du retrieval, pas comme une optimisation des rich results. L'objectif traditionnel des rich results (étoiles ou fiche recette dans la SERP) est désormais un effet secondaire. L'objectif premier est l'inclusion dans le pool de retrieval et un score de re-ranker plus élevé pendant la génération. Ce recadrage change le schéma à prioriser et la rigueur exigée sur la complétude des champs.
Deuxièmement, faites coïncider le schéma avec le contenu visible. Chaque exemple ci-dessus suppose que le JSON-LD décrit des données que l'utilisatrice voit effectivement sur la page. L'écart entre schéma et contenu visible est la cause la plus fréquente à la fois des sanctions Google et de la stagnation du taux de citation. Le schéma est une promesse faite au retriever ; la rompre coûte des créneaux candidats.
Troisièmement, empilez les patrons quand la page le justifie. Un article de recherche peut porter Article + Dataset + FAQPage simultanément. Un guide pratique peut porter HowTo + Article + FAQPage. Une page de fact-check peut porter ClaimReview + Article. Chaque schéma ajoute un signal de retrieval différent, et les empilements bien construits gagnent de la hausse de citations dans les moteurs qui pondèrent chaque patron différemment.
La tendance va vers plus de données structurées, pas moins. Le mode recherche de Claude d'Anthropic lit le JSON-LD agressivement, Le Chat de Mistral parse nativement Article et FAQPage, et les moteurs de réponse verticaux (Phind pour le code, Consensus pour la recherche, You.com pour le web) consomment tous le même vocabulaire Schema.org. Cinq patrons, validés et alignés avec un contenu réel, sont l'assurance format qui traverse les surfaces. Le reste du playbook GEO est dans l'le cadre AEO vs SEO.
Recevoir le prochain article par e-mail
Un article ancre par semaine sur l'Answer Engine Optimization. Sans remplissage.
Related
AEO vs SEO : un cadre 2026 pour la visibilité de marque
L'AEO (Answer Engine Optimization) et le SEO résolvent des problèmes différents en 2026. Ce cadre cartographie les sept divergences, les quatre recouvrements et une matrice de décision applicable ce trimestre.
insightsComment ChatGPT, Perplexity et Gemini choisissent leurs sources
ChatGPT, Perplexity et Gemini ne retrouvent pas et ne citent pas de la même façon. Voici l'analyse moteur par moteur de la sélection des sources, et ce qui change pour la stratégie de contenu en 2026.
bestPracticesShare of Voice dans l'IA : mesurer la visibilité de marque dans les LLM
Le Share of Voice dans l'IA est la part des réponses LLM qui citent votre marque. Voici la formule, un plan de mesure sur 30 jours et les trois pièges qui faussent le chiffre.