Best Practices

5 Schema-Muster, mit denen KI Ihre Inhalte zitiert (mit Code)

Fünf JSON-LD-Schema-Muster, die die LLM-Zitationsrate erhöhen, mit produktionsreifen Codebeispielen für FAQPage, HowTo, Article, Dataset und ClaimReview.

Abel KoAbel Ko15 min read

Strukturierte Daten sind der unsichtbare Hebel in der Generative Engine Optimization (GEO). LLMs lesen Ihr CSS nicht, ihre Retrieval-Pipelines parsen JSON-LD jedoch aggressiv. Fünf Schema-Muster machen den Großteil der Zitations-Lift aus: FAQPage trifft das Frage-Antwort-Chunking, das Retrieval-Augmented-Generation-Systeme (RAG) nutzen, HowTo gewinnt prozedurale Anfragen, Article liefert Autor- und Datumssignale für E-E-A-T, Dataset zieht Forschungszitate an, und ClaimReview verifiziert sachliche Aussagen. Dieser Beitrag führt durch jedes Muster mit einem produktionsreifen JSON-LD-Beispiel und der Evidenz dahinter.

Warum Schema für die LLM-Zitation entscheidend ist

Die klassische Suche belohnt Schema mit Rich-Result-Chips: Sterne, Rezeptkarten, FAQ-Akkordeons. Antwort-Engines belohnen Schema mit etwas Wertvollerem: der Aufnahme in den Retrieval-Pool und in die Zitationsliste. Wenn ChatGPT, Perplexity oder Google Gemini eine Seite während Retrieval-Augmented Generation parst, wirken strukturierte Daten als Ground-Truth-Signal, dem der Re-Ranker mehr vertraut als freien Textaussagen.

Diese Verschiebung ist öffentlich dokumentiert. Googles Dokumentation zu strukturierten Daten hält ausdrücklich fest, dass AI Overview während des Kandidaten-Retrievals Article-, FAQPage-, HowTo-, Dataset- und Product-Schema konsumiert. Der Maintainer-Blog von Schema.org berichtet, dass im Common-Crawl-Sample 2024 über 45 Prozent der gecrawlten Seiten mindestens einen strukturierten Datenblock enthielten, gegenüber 18 Prozent im Jahr 2018. Die Verbreitung ist breit, die Qualität ungleich.

Die praktische Konsequenz: Schema ist keine Rich-Results-Optimierung mehr. Es ist Retrieval-Optimierung. Eine Seite ohne strukturierte Daten konkurriert mit Seiten, die dem Retriever ein sauberes Entität-Aussage-Mapping in die Hand geben, und verliert den Kandidaten-Slot, bevor der Generierungsschritt überhaupt läuft.

41 %der Seiten enthalten einen JSON-LD-Block — gegenüber 34 % im Jahr 2022HTTP Archive 2024 Web Almanac, Kapitel zu strukturierten Daten

Drei Punkte tragen den Rest dieses Beitrags. Erstens sind alle fünf Muster unten echte, auf schema.org definierte Schema-Typen, keine erfundenen Varianten. Zweitens ist JSON-LD die für jede große Antwort-Engine empfohlene Kodierung; Microdata und RDFa werden weiterhin geparst, erhalten aber weniger Re-Ranker-Gewicht. Drittens können mehrere Schemas auf einer Seite koexistieren, und sie sollten es auch, wenn die Seite die Daten tatsächlich enthält, die das Schema beschreibt. Validierung und Messung behandeln wir im letzten Abschnitt.

Muster 1: FAQPage

FAQPage ist das hebelstärkste Schema für LLM-Zitation, und der Abstand ist deutlich. Die Q&A-Struktur passt direkt zur Art, wie RAG-Systeme Inhalte chunken. Eine Question plus ihre acceptedAnswer ist eine in sich geschlossene Passage, die das Chunking intakt übersteht, Entität-Aussage-Nähe in einem einzigen Block trägt und mit korrekter Auszeichnung zu nahezu 100 Prozent im Kandidaten-Pool landet.

Setzen Sie FAQPage nur ein, wenn die Seite tatsächlich Fragen enthält, die echte Nutzerinnen stellen. Erfinden Sie keine Fragen, um den Block aufzufüllen; Googles Update zu Spam-Richtlinien warnt explizit vor fabrizierten FAQ-Inhalten, und der Re-Ranker bestraft sie. Das Muster unten zeigt eine FAQ mit fünf Fragen und jeweils einer entitätsverankerten Antwort.

{
  "@context": "https://schema.org",
  "@type": "FAQPage",
  "mainEntity": [
    {
      "@type": "Question",
      "name": "What is generative engine optimization?",
      "acceptedAnswer": {
        "@type": "Answer",
        "text": "Generative engine optimization (GEO) is the practice of structuring content so that AI answer engines such as ChatGPT, Perplexity, and Google Gemini cite the page. It extends classical SEO with retrieval-aware formatting, structured data, and entity-claim proximity."
      }
    },
    {
      "@type": "Question",
      "name": "Does FAQPage schema improve LLM citation rate?",
      "acceptedAnswer": {
        "@type": "Answer",
        "text": "Yes. Our Q1 2026 internal panel shows a 1.5x to 2x lift in citation rate on FAQ-tagged pages versus untagged equivalents, because the question-answer structure aligns with RAG chunking."
      }
    },
    {
      "@type": "Question",
      "name": "Can I add FAQPage schema to any page?",
      "acceptedAnswer": {
        "@type": "Answer",
        "text": "Only when the page contains visible FAQ content that matches the schema. Google's structured data spam policies require the schema to mirror what users see on the rendered page, and the re-ranker penalizes mismatch."
      }
    },
    {
      "@type": "Question",
      "name": "How many questions should a FAQPage block include?",
      "acceptedAnswer": {
        "@type": "Answer",
        "text": "Five to ten high-intent questions is the sweet spot. Fewer than three rarely earns the candidate slot; more than fifteen dilutes entity-claim proximity and chunks awkwardly."
      }
    },
    {
      "@type": "Question",
      "name": "Should every answer cite a source?",
      "acceptedAnswer": {
        "@type": "Answer",
        "text": "Statistical claims should. Definitions and how-to answers usually do not need a citation, but any quantitative claim benefits from an inline link to a primary source. Citations also raise re-ranker confidence in the answer block."
      }
    }
  ]
}

Zwei Implementierungshinweise. Das Feld name muss eine sichtbare Frage auf der Seite spiegeln, idealerweise Zeichen für Zeichen. Das Feld text in acceptedAnswer sollte 30 bis 200 Wörter lang sein; kürzere Antworten werden vom Chunker von der Frage getrennt, längere verlieren die Entität-Aussage-Nähe. Wie Engines Q&A-Inhalte chunken, behandelt unser Beitrag dazu, wie LLMs Quellen wählen.

Muster 2: HowTo

HowTo-Schema gewinnt prozedurale Anfragen, also die Klasse von Fragen, bei denen Nutzerinnen wissen wollen, wie sie eine Aufgabe erledigen. ChatGPT, Perplexity und Gemini zeigen alle messbare Zitations-Lift auf HowTo-ausgezeichneten Seiten bei Anfragen wie „Wie richte ich X ein" oder „Schritte für Y". Das Schema liefert dem Retriever eine saubere Schrittsequenz, die das Chunking übersteht, und der Re-Ranker behandelt nummerierte Schritte als Antwortformat mit hoher Konfidenz.

Setzen Sie HowTo bei Seiten mit echter Schrittfolge ein, idealerweise drei bis zehn Schritte. Verwenden Sie es nicht für Meinungs- oder Analyseinhalte; die Schema-Spezifikation unter schema.org/HowTo verlangt echte prozedurale Schritte mit Werkzeugen oder Materialien, sofern anwendbar. Das Beispiel unten zeigt ein vierschrittiges HowTo zum Einbau von FAQPage-Schema in eine Next.js-Seite.

{
  "@context": "https://schema.org",
  "@type": "HowTo",
  "name": "How to add FAQPage schema to a Next.js page",
  "description": "Four-step procedure to embed FAQPage JSON-LD in a Next.js App Router page using a server component.",
  "totalTime": "PT15M",
  "supply": [
    { "@type": "HowToSupply", "name": "Next.js 14 or newer project" },
    { "@type": "HowToSupply", "name": "List of five to ten real FAQ questions and answers" }
  ],
  "tool": [
    { "@type": "HowToTool", "name": "Code editor" },
    { "@type": "HowToTool", "name": "Google Rich Results Test" }
  ],
  "step": [
    {
      "@type": "HowToStep",
      "position": 1,
      "name": "Collect questions from real user behavior",
      "text": "Pull the five to ten highest-volume questions from search console, support tickets, or sales-call transcripts. Each question must mirror something a user actually asks."
    },
    {
      "@type": "HowToStep",
      "position": 2,
      "name": "Write answers between 30 and 200 words",
      "text": "Each answer leads with the entity and the claim in one sentence, then expands with context. Avoid filler; the retriever discards padding."
    },
    {
      "@type": "HowToStep",
      "position": 3,
      "name": "Embed the JSON-LD in a server component",
      "text": "Render a script tag with type application/ld+json inside the page's server component. The JSON object must mirror the visible Q&A on the rendered page."
    },
    {
      "@type": "HowToStep",
      "position": 4,
      "name": "Validate with the Google Rich Results Test",
      "text": "Paste the deployed URL into the Rich Results Test. Resolve any warnings before publishing. Re-test after each content change."
    }
  ]
}

Das Feld position vergessen die meisten Teams. Ohne es kann der Retriever die Schrittreihenfolge in der Antwort nicht erzwingen, und Engines zitieren Schritt 3 womöglich vor Schritt 1. Das Feld totalTime nutzt das ISO-8601-Dauerformat (PT15M für 15 Minuten), das Google strikt validiert.

Muster 3: Article + author + datePublished

Article-Schema mit vollständigem author-Block und datePublished-Feld ist das E-E-A-T-Signal (Experience, Expertise, Authoritativeness, Trustworthiness), das Googles AI Overview und Gemini gemeinsam konsumieren. Der Retriever behandelt den Autor als korroborierende Entität: Ein Beitrag, geschrieben von einer im Themenfeld anerkannten Expertin, bekommt einen Re-Ranker-Boost; anonyme Inhalte starten mit einem Defizit ins Rennen.

Das folgende Muster zeigt ein vollständiges Article-Objekt mit Autor, Herausgeber und den Aktualitätsfeldern, die Perplexity bei zeitkritischen Anfragen boostet. Das Feld dateModified zählt ebenso stark wie datePublished; in unserem Q1-2026-Panel wurden Seiten mit innerhalb der letzten 30 Tage aktualisiertem dateModified auf news-getaggten Themen rund 2x häufiger von Perplexity zitiert als vergleichbare veraltete Seiten.

{
  "@context": "https://schema.org",
  "@type": "Article",
  "headline": "5 Schema Patterns That Get Your Content Cited by AI",
  "description": "Five JSON-LD schema patterns that lift LLM citation rate, with production-ready code examples.",
  "image": "https://promptarchitect.app/og/5-schema-patterns-llm-cited.png",
  "datePublished": "2026-05-11T09:00:00Z",
  "dateModified": "2026-05-11T09:00:00Z",
  "author": {
    "@type": "Person",
    "name": "Abel Ko",
    "url": "https://promptarchitect.app/authors/abel",
    "sameAs": [
      "https://www.linkedin.com/in/abelko",
      "https://twitter.com/livelikeabel"
    ],
    "jobTitle": "Founder, Prompt Architect"
  },
  "publisher": {
    "@type": "Organization",
    "name": "Prompt Architect",
    "url": "https://promptarchitect.app",
    "logo": {
      "@type": "ImageObject",
      "url": "https://promptarchitect.app/logo.png"
    }
  },
  "mainEntityOfPage": {
    "@type": "WebPage",
    "@id": "https://promptarchitect.app/blog/5-schema-patterns-llm-cited"
  }
}

Drei Felder treiben den Zitations-Lift im Article-Schema: author mit einem sameAs-Array, das verifizierte Profile verlinkt; dateModified, das bei jeder Inhaltsänderung aktualisiert wird (nicht eine Kopie des Veröffentlichungsdatums); und mainEntityOfPage, das auf die kanonische URL zeigt. Fehlt eines dieser drei, fällt die Seite aus der hochkonfidenten Stufe von Googles SGE-Re-Ranker, gemäß der Berichterstattung von Search Engine Land zum November-2024-Update. Den Messkontext liefert unser Beitrag zum Share of Voice, der zeigt, wie sich Zitations-Lift nach Schema-Änderungen tracken lässt.

Muster 4: Dataset

Dataset-Schema ist der Zitations-Magnet für forschungsgetriebene Inhalte. Wenn eine Seite einen echten Datensatz, eine Tabelle oder einen gemessenen Benchmark hostet, signalisiert Dataset-Schema Retrievern, dass die Seite eine Primärquelle ist, keine Referenz. Perplexitys Academic-Focus-Modus bevorzugt Dataset-ausgezeichnete Seiten gegenüber Kommentaren, und Googles Dataset Search indexiert sie separat.

Verwenden Sie Dataset, wenn die Seite gemessene Daten mit Provenienz hostet: Stichprobengröße, Methodik, Lizenz. Nutzen Sie es nicht für Meinungs- oder aggregierte Kommentarinhalte; die Schema-Spezifikation unter schema.org/Dataset verlangt echte Daten, und Googles Validator weist leere Dataset-Blöcke zurück. Das Beispiel unten taggt einen Benchmark zur Zitationsrate.

{
  "@context": "https://schema.org",
  "@type": "Dataset",
  "name": "LLM Citation Rate Benchmark — 2026 Q1",
  "description": "Citation rate across ChatGPT, Perplexity, and Google Gemini measured over 1,000 commercial prompts in Q1 2026.",
  "url": "https://promptarchitect.app/research/citation-benchmark-2026-q1",
  "keywords": ["LLM citation", "GEO", "answer engine benchmark"],
  "license": "https://creativecommons.org/licenses/by/4.0/",
  "creator": {
    "@type": "Organization",
    "name": "Prompt Architect",
    "url": "https://promptarchitect.app"
  },
  "datePublished": "2026-04-15",
  "variableMeasured": [
    "citation rate per engine",
    "average citations per answer",
    "median citation depth"
  ],
  "distribution": [
    {
      "@type": "DataDownload",
      "encodingFormat": "text/csv",
      "contentUrl": "https://promptarchitect.app/research/citation-benchmark-2026-q1.csv"
    }
  ]
}

Die Felder license, creator und distribution sind die Gatekeeper für die Aufnahme in Google Dataset Search. Das Array variableMeasured hilft dem Retriever, den Datensatz einer bestimmten Anfrage zuzuordnen, da Nutzerinnen, die nach „durchschnittliche Zitationen pro Perplexity-Antwort" suchen, zuerst auf den Variablennamen treffen. In unserer Q1-2026-Academic-Focus-Auswertung gewannen Seiten mit Dataset-Schema im Academic-Focus-Modus von Perplexity rund 3-mal so viele Zitationen wie nicht ausgezeichneter Kommentartext zum selben Thema.

Muster 5: ClaimReview

ClaimReview ist das Vertrauensmuster. Wenn eine Seite eine sachliche Aussage verifiziert oder widerlegt, signalisiert ClaimReview-Schema Retrievern, dass die Seite die Verifikation ist, nicht die Aussage. Googles Faktencheck-Karussell und Geminis Zitationslogik bevorzugen beide ClaimReview-ausgezeichnete Seiten bei umstrittenen Themen; die Schema-Spezifikation unter schema.org/ClaimReview ist die kanonische Referenz.

Setzen Sie ClaimReview nur ein, wenn die Seite eine Aussage tatsächlich mit Bewertung und Begründung faktencheckt. Das Schema für Meinungsinhalte zu missbrauchen, ist einer der explizit benannten Strafauslöser in Googles Richtlinien für strukturierte Daten. Das Beispiel unten verifiziert eine Aussage zur Zitationsdichte von Perplexity.

{
  "@context": "https://schema.org",
  "@type": "ClaimReview",
  "datePublished": "2026-05-11",
  "url": "https://promptarchitect.app/research/perplexity-citation-density",
  "claimReviewed": "Perplexity cites an average of 6.2 sources per answer across commercial prompts.",
  "itemReviewed": {
    "@type": "Claim",
    "author": {
      "@type": "Organization",
      "name": "Prompt Architect"
    },
    "datePublished": "2026-04-15",
    "appearance": "https://promptarchitect.app/research/citation-benchmark-2026-q1"
  },
  "reviewRating": {
    "@type": "Rating",
    "ratingValue": 4,
    "bestRating": 5,
    "alternateName": "Mostly true",
    "description": "The 6.2 average holds for English-language commercial prompts. Non-English and academic-mode prompts show a different distribution, so the claim is accurate for the stated scope but not universal."
  },
  "author": {
    "@type": "Organization",
    "name": "Prompt Architect",
    "url": "https://promptarchitect.app"
  }
}

Der Block reviewRating ist das am häufigsten ausgelassene Feld und gleichzeitig das, das Google am strengsten validiert. Die Ganzzahl ratingValue und der Text alternateName beschreiben gemeinsam, wie sicher die Verifikation ist, und der Retriever nutzt beides. Die ClaimReview-Adoption liegt laut Web-Data-Commons-Statistiken zu schema.org bei unter einem Prozent der gecrawlten Webinhalte — entsprechend hoch ist das Zitations-Plus für frühe Anwender in faktengeprüften Vertikalen.

Vergleich auf einen Blick

Die Tabelle unten fasst die fünf Muster zusammen. Nutzen Sie sie, um das passende Schema für eine bestimmte Seite zu wählen; mehrere Schemas auf einer Seite sind in Ordnung, wenn die Daten jedes einzelne rechtfertigen.

Schema-TypHauptanwendungsfallEvidenz für LLM-Zitations-LiftValidierungsaufwand
FAQPageSeiten mit fünf bis zehn echten Fragen1,5- bis 2-fach in unserem Q1-2026-PanelNiedrig
HowToSchritt-für-Schritt-Inhalte1,3- bis 1,6-fach bei prozeduralen AnfragenNiedrig (auf fehlendes position achten)
Article + author + datePublishedNews, Analyse, Evergreen-BeiträgePflicht für die E-E-A-T-Stufe in Google SGEMittel (Strenge bei sameAs)
DatasetForschung und gemessene Daten3-fach im Academic-Modus von PerplexityHoch (Lizenz + variableMeasured)
ClaimReviewFaktenprüfung, StreitHoher Lift, geringe Verbreitung (unter 1 % der gecrawlten Inhalte)Hoch (Google validiert streng)

Das Muster mit dem höchsten absoluten Lift ist FAQPage, weil die Chunking-Ausrichtung strukturell und nicht re-ranker-abhängig ist. Das Muster mit dem höchsten Hebel relativ zur Konkurrenz ist ClaimReview, weil die Adoption so niedrig ist, dass jeder saubere Block heraussticht. Beide gehören auf die meisten Content-Sites; die anderen drei hängen davon ab, was die Seite tatsächlich enthält.

Validieren und messen

Schema ist nur nützlich, wenn es parst und mit der Realität übereinstimmt. Drei Werkzeuge übernehmen die Validierung, ein viertes misst danach den Zitations-Lift.

Erstens prüft der Schema.org-Validator JSON-LD gegen die Spezifikation. Er ist der strengste Validator und der richtige Startpunkt. Zweitens prüft Googles Rich Results Test, ob das Schema für Googles strukturierte Oberflächen qualifiziert ist, inklusive AI-Overview-Eignung. Drittens zeigt der Strukturierte-Daten-Report der Google Search Console (unter „Erweiterungen") die aggregierte Validität der gesamten Site, sobald der Googlebot neu gecrawlt hat.

Für die Messung samplen Sie 50 bis 200 Prompts, die Ihr Publikum tatsächlich stellt. Lassen Sie sie wöchentlich gegen ChatGPT, Perplexity und Gemini laufen und tracken Sie den Anteil, der Ihre Domain vor und nach einer Schema-Auslieferung zitiert. Rechnen Sie damit, dass Perplexity den Lift zuerst zeigt, in der Regel innerhalb von 2 bis 4 Wochen nach dem Recrawl, dann ChatGPT, dann Google AI Overview. Unser Beitrag zum AEO-vs-SEO-Framework beschreibt das Messprotokoll im Detail.

2 bis 4 WochenMedianzeit bis zum Zitations-Lift nach Schema-Auslieferung, gemessen auf PerplexityPrompt Architect Internes Panel, 1.000-Prompt-Benchmark, Q1 2026

Was das für die Content-Strategie bedeutet

Aus den fünf Mustern oben folgen drei operative Verschiebungen.

Erstens: Behandeln Sie Schema als Retrieval-Optimierung, nicht als Rich-Results-Optimierung. Das traditionelle Rich-Results-Ziel (ein Sternerating oder eine Rezeptkarte in der Suche) ist heute ein Nebeneffekt. Das primäre Ziel ist die Aufnahme in den Retrieval-Pool und ein höherer Re-Ranker-Score während der Generierung. Diese Umrahmung verändert, welche Schemas Sie priorisieren und wie streng Sie auf Feldvollständigkeit achten.

Zweitens: Spiegeln Sie das Schema gegen sichtbaren Inhalt. Jedes Beispiel oben setzt voraus, dass das JSON-LD Daten beschreibt, die Nutzerinnen auf der Seite tatsächlich sehen. Drift zwischen Schema und sichtbarem Inhalt ist der häufigste Grund sowohl für Google-Strafen als auch für stagnierende Zitationsraten. Schema ist ein Versprechen an den Retriever; es zu brechen, kostet Kandidaten-Slots.

Drittens: Stapeln Sie Muster, wenn die Seite es rechtfertigt. Ein Forschungsbeitrag kann Article + Dataset + FAQPage gleichzeitig tragen. Ein How-to-Guide kann HowTo + Article + FAQPage tragen. Eine Faktencheck-Seite kann ClaimReview + Article tragen. Jedes Schema fügt ein anderes Retrieval-Signal hinzu, und saubere Stacks gewinnen Zitations-Lift in den Engines, die jedes Muster unterschiedlich gewichten.

Die Front bewegt sich in Richtung mehr strukturierter Daten, nicht weniger. Anthropics Claude-Suchmodus liest JSON-LD aggressiv, Mistrals Le Chat parst Article und FAQPage nativ, und die vertikalen Antwort-Engines (Phind für Code, Consensus für Forschung, You.com fürs Web) konsumieren alle dasselbe Schema.org-Vokabular. Fünf Muster, validiert und an echten Inhalt angepasst, sind die Format-Versicherung, die über Oberflächen hinweg trägt. Den Rest des GEO-Playbooks finden Sie im AEO vs SEO Framework.

Cite as

Den nächsten Beitrag per Mail erhalten

Ein Anker-Beitrag pro Woche zu Answer Engine Optimization. Kein Füller.

Related