TL;DR: In einem Audit über 100 Listings in ChatGPT, Perplexity und Gemini stieg die Zitationsrate von 12 % bei reinen Prosa-Listings auf 71 % bei Listings mit vollständigen strukturierten Geodaten. Die drei Signale mit der größten Wirkung waren verifizierte Geo-Koordinaten, Nearby-Context-Felder und NAP-Konsistenz über Plattformen hinweg.
In den ersten zwei Aprilwochen 2026 haben wir ein kontrolliertes Audit über 100 lokalitätsbasierte Listings gefahren, um eine Frage zu beantworten: Wie stark verändern strukturierte Geodaten tatsächlich die Rate, mit der ein KI-Assistent ein Listing zitiert?
Die kurze Antwort: um etwa den Faktor sechs zwischen dem schlechtesten und dem besten Bucket. Es folgen die vollständige Methodik, die Bucket-Ergebnisse und die praktischen Implikationen für alle, die ein Listing für die KI-Suche optimieren.
Methodik
Listings. 100 Listings über vier Verticals: 30 Ferienunterkünfte, 25 Boutique-Hotels, 25 unabhängige Restaurants, 20 lokale Attraktionen. Geografien über 14 europäische Städte, um Single-Market-Bias zu begrenzen. Alle Listings hatten eine aktive, indexierbare Homepage und mindestens eine Präsenz in einem Drittanbieter-Verzeichnis.
Query-Set. 15 Discovery-Intent-Prompt-Templates pro Listing, über generische Discovery ("ruhige Boutique-Hotels in Porto"), Feature-spezifische Discovery ("Hotels in Porto zu Fuß zur Metro erreichbar") und Named Recall ("ist Casa do Vale ein gutes Gästehaus in Porto"). Jedes Template wurde frisch abgesetzt, ohne Conversation History, in einer sauberen Session.
Modelle. ChatGPT (GPT-5-Klasse), Perplexity, Gemini. Jeder Prompt wurde einmal pro Modell ausgeführt, was 45 Responses pro Listing und 4.500 Responses insgesamt ergibt.
Scoring. Eine Response zählte als Zitation, wenn das Listing als verlinkte Quelle erschien, explizit in der Antwort genannt wurde oder beides. Teilweise Namensübereinstimmungen wurden manuell geprüft, um False Positives auszuschließen.
Bucketing. Jedes Listing wurde vom MapAtlas AEO Checker über 29 strukturierte Signale bewertet und anschließend in vier Vollständigkeits-Buckets gruppiert. Die Bucket-Schwellen wurden vor Beginn des Scorings festgelegt.
Kernergebnis
Der Abstand der Zitationsrate zwischen dem untersten und dem obersten Bucket war größer als erwartet.
Quelle: MapAtlas Benchmark, April 2026, n=100 Listings, 4.500 Responses.
Der unterste Bucket, Listings mit reicher Prosa, aber ohne Strukturdaten, erreichte eine Zitationsrate von 12 %. Der oberste Bucket, Listings mit vollständigem Place-Schema, verifizierten geo-Koordinaten, Nearby-Context-Feldern, FAQ-Schema und konsistenten NAP-Daten über Plattformen hinweg, erreichte 71 %.
Signal-für-Signal-Analyse
Um zu verstehen, welche einzelnen Signale das Top-Bucket-Ergebnis trieben, haben wir eine Feature-Ablation durchgeführt. Für jedes der sechs am stärksten gewichteten Signale haben wir die Zitationsraten unter Listings mit dem Signal mit jenen ohne verglichen, bei annähernd konstant gehaltenen übrigen Variablen.
| Signal | Mit Signal | Ohne Signal | Lift |
|---|---|---|---|
Vollständiges Place-JSON-LD mit geo | 58% | 19% | 3.1x |
| Verifizierte Nearby-POI-Daten | 62% | 24% | 2.6x |
| Transit-Proximity-Felder | 54% | 22% | 2.5x |
| FAQ-Schema mit Lokalitäts-Fragen | 49% | 26% | 1.9x |
| NAP-Konsistenz über 3+ Plattformen | 56% | 21% | 2.7x |
| Externer Identifier (Wikidata / Place ID) | 51% | 27% | 1.9x |
Quelle: MapAtlas Benchmark, April 2026.
Vier Erkenntnisse aus dieser Tabelle:
- Geo-Koordinaten sind der mit Abstand stärkste Lift. Ein Place-Block ohne
geoperformt nur marginal besser als gar kein Schema. - Nearby Context ist fast genauso stark. Proximity zu benannten POIs und Transit ist der zweitgrößte Prädiktor für Zitationen.
- FAQ-Schema hilft, aber weniger als lokalitätsspezifische Signale. FAQs, die Lokalitäts-Fragen beantworten ("wie weit ist die nächste Metro"), schlugen generische Betriebs-FAQs deutlich.
- Externe Identifier schlagen über ihr Gewicht. Die Zuordnung eines Listings zu einer Wikidata-QID oder Google Place ID verdoppelte die Zitationsrate in der Ablation nahezu, vermutlich weil sie KI-Systemen erlaubt, quellenübergreifend zu deduplizieren.
Unterschiede zwischen Verticals
Die Effektgröße war nicht über Verticals hinweg uniform. Ferienunterkünfte, die von der schwächsten Baseline starten, zeigten die größten absoluten Gewinne durch Strukturdaten. Wahrzeichen, die in den Trainingsdaten bereits gut vertreten sind, zeigten die kleinsten.
| Vertical | Unterster Bucket | Oberster Bucket | Gap |
|---|---|---|---|
| Ferienunterkunft | 7% | 68% | +61 |
| Boutique-Hotel | 14% | 74% | +60 |
| Unabhängiges Restaurant | 13% | 69% | +56 |
| Lokale Attraktion | 18% | 72% | +54 |
Quelle: MapAtlas Benchmark, April 2026.
Ferienunterkünfte sind der deutlichste Gewinn. Ein Listing, das unsichtbar startet, kann allein über Strukturdaten zu einer konsistent zitierten Quelle werden. Der Effekt ist schwächer, aber immer noch signifikant, für Einrichtungen, die bereits starke öffentliche Repräsentation haben.
Was das Modell tatsächlich tut
Bei der qualitativen Review von 200 Responses zeigte sich ein wiederkehrendes Muster. Hatte ein Listing vollständige Strukturdaten, zitierte der Assistent spezifische Fakten: Gehzeit zum Bahnhof, Anzahl Restaurants innerhalb von 300 Metern, Viertelname, Öffnungszeiten. Wurde dasselbe Listing seiner Strukturdaten beraubt, ließ der Assistent es entweder ganz aus oder beschrieb es in generischen Formulierungen.
Das deckt sich mit dem typischen Verhalten retrieval-augmentierter Modelle. Sie zitieren bevorzugt Quellen, die die Frage mit konkreten, verifizierbaren Fakten beantworten. Prosa, die ein Listing als "ruhig und fußläufig" beschreibt, verliert gegen ein strukturiertes Feld mit "Walk Score 92, Geräuschindex 18 dB Durchschnitt". Die zweite Version ist einfacher zu extrahieren, einfacher mit der Nutzerquery zu vergleichen und einfacher zu attribuieren.
Was ein Listing von Bucket 1 zu Bucket 4 bewegt
Basierend auf der Ablation sind es vier Änderungen, die den Großteil des Lifts erklären:
1. Vollständigen Place- oder LodgingBusiness-JSON-LD-Block mit geo-Koordinaten hinzufügen. Koordinaten, die zur Postadresse passen, ein kanonischer externer Identifier und alle erforderlichen Schema.org-Felder. Googles eigener Leitfaden zu strukturierten Daten für Local Business listet die Felder mit dem größten Gewicht. Siehe JSON-LD-Schema für KI-Zitationen bei Local Business für feldgenaue Details.
2. Das Listing mit verifiziertem Nearby Context anreichern. Gehzeiten zu den nächsten Haltestellen, Zähler für nahegelegene Restaurants und Cafés, benannte POIs innerhalb eines definierten Radius. MapAtlas GeoEnrich generiert das skaliert aus verifizierten Quellen, sodass es sowohl ins Schema als auch in den Page Copy eingebettet werden kann.
3. Ortsspezifisches FAQ-Schema publizieren. Fragen, die direkt darauf abbilden, wie Nutzer Lokalitätsqueries formulieren. Siehe Ortsspezifische FAQs für die KI-Suche.
4. NAP über Plattformen hinweg abgleichen. Listing-Homepage, Google Business Profile und mindestens ein Drittanbieter-Verzeichnis sollten denselben Namen, dieselbe Adresse und dieselbe Telefonnummer zeigen. NAP-Konsistenz für die KI-Suche behandelt die Mechanik.
Einschränkungen
Dieser Benchmark ist richtungsweisend, nicht definitiv. Drei nennenswerte Limitationen:
- Stichprobengröße. 100 Listings reichen, um große Effekte zu sehen, aber nicht, um feinkörnige Unterschiede aufzulösen.
- Model Drift. KI-Assistenten werden häufig aktualisiert. Die absoluten Zahlen werden sich verschieben, die relative Reihenfolge der Signale ist stabiler.
- Query-Mix. Unsere Templates neigen zu Discovery-Intent. Transaktionale Queries ("heute Abend ein Zimmer in Porto buchen") werden anders geroutet und waren außerhalb des Scopes.
Der übergeordnete Punkt ist nicht die Präzision einer einzelnen Zahl. Es ist, dass die Lücke zwischen strukturierten und unstrukturierten Listings groß, messbar und weitgehend im Kontrollbereich des Listing-Betreibers schließbar ist.
Eigene Baseline messen
Der MapAtlas AEO Checker bewertet ein Listing anhand derselben 29 Signale wie dieser Benchmark. Auf dem Top-Objekt laufen lassen, dann auf dem schwächsten. Das Delta im Score entspricht meist dem Delta darin, wie häufig das jeweilige Objekt in der Praxis von KI-Assistenten ausgespielt wird.
Die Zitationsrate wird zum Äquivalent des organischen Rankings für die Generation von Nutzern, die über KI suchen. Gewinnende Listings sind jene, die dem Modell etwas zum Extrahieren geben. Alles andere ist Prosa, die das Modell höflich ignoriert.
Weiterführende Artikel:
- Warum KI-Assistenten Adressen halluzinieren
- SEO war Keyword zu Keyword, jetzt ist es Datenbank zu Datenbank
- Ortsspezifische FAQs für die KI-Suche
- Prüfen Sie Ihren KI-Sichtbarkeits-Score kostenlos
Häufig gestellte Fragen
Was ist eine KI-Zitationsrate?
Die KI-Zitationsrate ist der Anteil relevanter Nutzerqueries, bei denen ein KI-Assistent ein bestimmtes Listing in seinen zitierten Quellen aufführt oder es in der Antwort namentlich erwähnt. Sie ist das KI-Search-Äquivalent zum organischen Ranking, gemessen auf Antwortebene statt auf der Ergebnisseite. Ein Listing mit 40 % Zitationsrate erscheint in zwei von fünf relevanten Antworten über die getesteten Assistenten hinweg.
Wie wurde dieser Benchmark durchgeführt?
Wir haben 100 Listings aus vier Verticals ausgewählt: Ferienunterkünfte, Boutique-Hotels, unabhängige Restaurants und lokale Attraktionen. Jedes Listing wurde 15-mal in ChatGPT, Perplexity und Gemini mit einem Standardtemplate aus Discovery-Intent-Fragen abgefragt. Die Antworten wurden danach bewertet, ob das Listing als zitierte Quelle oder namentlich genannte Empfehlung erschien. Listings wurden dann nach der Vollständigkeit ihrer Strukturdaten, gemessen vom MapAtlas AEO Checker, in Buckets eingeteilt.
Welches Signal hatte den größten Effekt auf die Zitationsrate?
Drei Signale machten den größten Unterschied: das Vorhandensein eines vollständigen Place- oder LodgingBusiness-JSON-LD-Blocks mit geo-Koordinaten, verifizierter Nearby Context wie Fahrzeiten und Proximity zu benannten POIs, und NAP-Konsistenz zwischen Google Business Profile, Listing-Homepage und mindestens einem Drittanbieter-Verzeichnis. Listings, die bei allen drei Signalen hoch scorten, hatten eine rund sechsfach höhere Zitationsrate als Listings, die bei allen drei Signalen niedrig scorten.
Haben Prosa-Beschreibungen allein überhaupt geholfen?
Marginal. Lange Prosa-Beschreibungen mit Lokalitäts-Keywords, aber ohne Strukturdaten, erzeugten eine Baseline-Zitationsrate von rund 12 %. Mit Schema.org-Markup, aber ohne verifizierte geo-Felder, stieg sie auf etwa 28 %. Mit verifiziertem Nearby Context und konsistenten NAP-Daten stieg sie weiter auf rund 71 % für den Top-Bucket. Prosa-Qualität ist relevant für das Nutzervertrauen, sobald ein Listing zitiert wurde, hat aber begrenzten Einfluss darauf, ob es überhaupt zitiert wird.
Wie messe ich meine eigene Zitationsrate?
Die Listing-URL durch den kostenlosen MapAtlas AEO Checker unter mapatlas.eu/ai-seo-checker laufen lassen. Der Checker bewertet dieselben 29 Signale wie in diesem Benchmark und markiert, welche fehlen. Kombinieren Sie den Score mit periodischen manuellen Prompts in ChatGPT, Perplexity und Gemini, um zu verfolgen, wie oft Ihr Listing über die Zeit auftaucht.

