TL;DR: AI-assistenten verzinnen plausibel klinkende maar foute adressen met rates van 6 % voor ketenhotels tot 38 % voor onafhankelijke vakantiehuizen. De oplossing is niet het model corrigeren. Publiceer één ondubbelzinnige ground truth met Schema.org Place-markup, geverifieerde coördinaten en een canonieke externe identifier, en houd die waarheid consistent op elk platform waar het bedrijf voorkomt.
Vraag ChatGPT naar het adres van een driesterrenhotel in Porto en je krijgt waarschijnlijk een straatnaam, huisnummer en postcode terug. Het antwoord klinkt zelfverzekerd. Voor de grote ketens klopt het meestal. Voor het onafhankelijke boutique-pand twee straten verderop is er een reële kans dat het antwoord fout is.
Dit is geen zeldzame edge case. Het is een voorspelbare output van hoe language models tekst genereren, en het heeft directe consequenties voor iedereen wiens business afhangt van vindbaarheid op een specifieke locatie.
De mechaniek van een locatie-hallucinatie
Een language model slaat geen adressendatabase op. Het slaat een statistische verdeling over tokens op. Bij een adresvraag voorspelt het een token-reeks die lijkt op een adres voor dat type vestiging in die stad.
Als de trainingsdata het echte adres vaak, consistent en uit gezaghebbende bronnen bevatten, convergeert de voorspelling naar de juiste string. Kwam het adres zelden, inconsistent of helemaal niet voor, dan interpoleert het model. Het kiest een straat die goed klinkt voor de buurt, een huisnummer dat past bij het blok, een postcode die het lokale patroon volgt.
De output is grammaticaal correct, geografisch plausibel, en vaak volledig fout.
Steekproef-audit: hallucinatieratio's per query-type
We draaiden 500 locatie-queries door drie toonaangevende AI-assistenten in april 2026. Elke query vroeg naar het adres van een specifieke vestiging. Antwoorden werden vergeleken met het geverifieerde adres van de vestiging in MapAtlas GeoEnrich.
De tabel hieronder toont het aandeel responses met minstens één materiële adresfout (verkeerde straat, verkeerd nummer, verkeerde postcode of verkeerde stad). Cijfers zijn indicatief en specifiek voor deze steekproef.
| Query-type | ChatGPT | Perplexity | Gemini |
|---|---|---|---|
| Ketenhotel | 6% | 4% | 7% |
| Onafhankelijk boutique-hotel | 19% | 14% | 22% |
| Vakantiewoning | 38% | 29% | 41% |
| Onafhankelijk restaurant | 24% | 18% | 27% |
| Bezienswaardigheid | 9% | 5% | 8% |
Bron: MapAtlas steekproef-audit, april 2026, n=500 queries.
Twee patronen springen eruit. Ten eerste schaalt de hallucinatieratio met hoe dun en inconsistent de web-footprint van de vestiging is. Vakantiewoningen, die vaak alleen op één listing-platform staan zonder eigen homepage, hebben er het meest last van. Ten tweede hallucineert Perplexity consistent minder, waarschijnlijk omdat zijn retrieval-laag meer antwoorden grondt in live sources in plaats van parametrisch geheugen.
Een uitgewerkt voorbeeld
Een query in april 2026: "Wat is het adres van guesthouse Casa do Vale in Porto?"
Gehallucineerd antwoord van een toonaangevende assistent:
Casa do Vale is gevestigd aan Rua de Santa Catarina 142, 4000-442 Porto, Portugal.
Geverifieerd antwoord uit de eigen administratie van het pand en MapAtlas Geocoding:
Casa do Vale, Rua do Vale 38, 4200-512 Porto, Portugal.
Verkeerde straat, verkeerde postcode, verkeerde kant van de stad. Het gehallucineerde antwoord dropt de gast in een winkelbuurt drie kilometer van het echte guesthouse vandaan. De fout is niet willekeurig. Rua de Santa Catarina is de bekendste winkelstraat van Porto en komt massaal voor in trainingsdata voor Porto-accommodatiequeries. Het model viel terug op de sterkste statistische prior voor de stad.
Waarom gestructureerde data het resultaat verandert
Een listing-pagina met een correct opgebouwd Place- of LodgingBusiness-JSON-LD-blok geeft het model iets om te extraheren in plaats van te verzinnen.
{
"@context": "https://schema.org",
"@type": "LodgingBusiness",
"name": "Casa do Vale",
"address": {
"@type": "PostalAddress",
"streetAddress": "Rua do Vale 38",
"postalCode": "4200-512",
"addressLocality": "Porto",
"addressCountry": "PT"
},
"geo": {
"@type": "GeoCoordinates",
"latitude": 41.1621,
"longitude": -8.5937
},
"identifier": {
"@type": "PropertyValue",
"propertyID": "wikidata",
"value": "Q00000000"
}
}
Drie eigenschappen van dit blok zijn cruciaal voor hallucinatiereductie:
- Gestructureerde velden. Het model hoeft geen zin te parsen. Straat, postcode, stad en land zijn aparte keys.
- Coördinaten die matchen met het adres. Een crawler kan verifiëren dat latitude en longitude binnen de postcode-polygon vallen. Mismatches markeren de data als low-confidence.
- Een stabiele externe identifier. Wikidata of een Google Place ID koppelt de listing aan een canonieke entiteit. Het model kan het adres reconciliëren tegen een gezaghebbende bron in plaats van te leunen op frequentie in trainingsdata.
Als deze drie condities kloppen, vervangt extractie generatie. De kans op een gehallucineerd antwoord daalt scherp.
De NAP-consistentielaag
Schema op de listing-pagina is noodzakelijk maar niet voldoende. AI-systemen kruisen het adres met andere publieke bronnen: Google Business Profile, OpenStreetMap, Yelp, Tripadvisor, boekingsplatforms en het open web. Verschillen die zaken oneens, dan daalt het vertrouwen en gaat het model eerder hedgen of genereren.
Daarom is Name, Address, Phone (NAP) consistentie over platforms een sterkere voorspeller van citation dan enig enkel signaal. Een listing met perfect schema maar een conflicterend adres op Google Business Profile presteert alsnog slecht. Zie NAP-consistentie voor AI-search voor de mechaniek.
Wat hallucinatierisico doorgaans oplost
Vier maatregelen maken in onze audits het grootste verschil:
1. Publiceer geverifieerde coördinaten naast het adres. Een geschreven adres is een string. Coördinaten zijn een verifieerbaar feit. MapAtlas Geocoding zet ruwe adressen op schaal om in precieze latitude en longitude, en markeert inputs die niet schoon resolven.
2. Wrap locatiefeiten in JSON-LD. De types Place, LodgingBusiness, Hotel, Restaurant en LocalBusiness accepteren allemaal address-, geo- en identifier-velden. Ontbrekende velden zijn waar het model begint te gokken.
3. Reconcile naar een canonieke identifier. Koppel de listing aan een Wikidata-QID of Google Place ID. Dat geeft AI-systemen een primary key om op te dedupliceren.
4. Verrijk met nearby context. Hallucinaties beperken zich niet tot het adresveld. Modellen verzinnen ook nabijgelegen bezienswaardigheden, haltes en looptijden. Geverifieerde proximity-data, gegenereerd door MapAtlas GeoEnrich, verankert ook die claims. Locatie-specifieke FAQs zijn een effectieve surface om die data bloot te leggen.
De business-kosten van een gehallucineerd adres
Een fout adres in een AI-antwoord beschaamt niet alleen het model. Het stuurt een echte gast naar de verkeerde plek. De gevolgen stapelen zich op:
- Een geannuleerde boeking, of erger, een no-show.
- Een negatieve review die de verkeerde locatie noemt en vervolgens trainingsdata wordt voor de volgende modelgeneratie.
- Dalende citation confidence voor de listing in de toekomst, omdat het publieke web nu tegenstrijdige signalen bevat.
De asymmetrie is belangrijk. Een gehallucineerd adres schaadt de listing zelfs wanneer de listing zelf onschuldig is. De fix is niet het model direct corrigeren, dat kan niet, maar de ground truth zo ondubbelzinnig maken dat het model geen reden meer heeft om überhaupt te genereren.
Hoe je je eigen blootstelling checkt
De gratis MapAtlas AEO Checker evalueert een listing tegen 29 gestructureerde signalen, waaronder adres-schema, aanwezigheid van coördinaten, NAP-consistentie en externe identifiers. Listings die deze checks halen worden aantoonbaar minder vaak verkeerd weergegeven in AI-antwoorden. Listings die zakken zijn precies die waar het model moet gokken.
Locatie-hallucinaties zijn geen quirk van één assistent. Het zijn een voorspelbaar gevolg van trainen op een open web waar hetzelfde bedrijf op tientallen bronnen met licht afwijkende adressen opduikt. De fix: publiceer één ground truth in een formaat dat AI-systemen kunnen extraheren, en houd die ground truth consistent op elke andere plek waar het bedrijf wordt gerepresenteerd.
Gerelateerd leeswerk:
- Locatie-specifieke FAQs voor AI-search
- SEO was keyword-naar-keyword, nu is het database-naar-database
- NAP-consistentie voor AI-search
- Check je AI-zichtbaarheidsscore gratis
Veelgestelde vragen
Wat is een AI-adreshallucinatie?
Een AI-adreshallucinatie is wanneer een large language model een concreet straatadres, postcode of coördinaat teruggeeft dat plausibel oogt maar niet overeenkomt met de echte locatie van de bedrijfsvestiging, bezienswaardigheid of accommodatie die wordt beschreven. Het is geen kleine afrondingsfout. Het model heeft een adres gesynthetiseerd dat niet bestaat, bij een andere vestiging hoort, of een echte straat combineert met de verkeerde stad. Voor listings is dit bijzonder schadelijk, omdat de gebruiker naar de verkeerde locatie kan reizen voordat hij doorheeft dat het antwoord verzonnen was.
Waarom hallucineren AI-assistenten adressen?
Language models genereren tekst door de meest waarschijnlijke volgende token te voorspellen, niet door feiten op te zoeken. Wanneer een adres ondervertegenwoordigd is, inconsistent op het web staat, of geblokkeerd is voor crawling, vult het model het gat met een statistisch plausibele string: een straatnaam die goed klinkt voor de stad, een postcodepatroon dat past bij de regio, een huisnummer dat typisch aanvoelt. Zonder gestructureerde ground-truth-bron als anker heeft het model geen manier om een onthouden feit te onderscheiden van een gegenereerd feit.
Hoe vaak gebeuren locatie-hallucinaties in de praktijk?
In een MapAtlas steekproef-audit van april 2026 over 500 locatie-queries voor hotels, vakantiewoningen, restaurants en bezienswaardigheden liepen de hallucinatieratio's op adresniveau van ongeveer 6% voor bekende ketenhotels tot 38% voor onafhankelijke vakantiewoningen. Generieke queries over bezienswaardigheden scoorden het best, long-tail listing-queries het slechtst. Het percentage is indicatief en varieert per model, taal en actualiteit van de onderliggende data, maar het patroon is consistent: hoe minder gestructureerde data een locatie blootgeeft, hoe meer het model verzint.
Verlaagt Schema.org structured data hallucinaties?
Ja, mits de data geverifieerd en consistent is over bronnen heen. Het publiceren van een Place- of LodgingBusiness-JSON-LD-blok met correcte geo-coördinaten, een gevalideerd postadres, en kruisverwijzingen naar gezaghebbende identifiers zoals Wikidata of Google Place ID geeft het model een ground-truth-anker dat het kan extraheren en citeren. Inconsistent schema, bijvoorbeeld coördinaten die niet matchen met het geschreven adres, verlaagt juist het vertrouwen in plaats van het te verhogen.
Hoe audit ik mijn listings op hallucinatierisico?
Draai de listing-URL door de gratis MapAtlas AEO Checker op mapatlas.eu/ai-seo-checker. De checker evalueert 29 gestructureerde signalen die AI-systemen gebruiken om locatiefeiten te verankeren, waaronder geo-coördinaten, Place-schema, NAP-consistentie over platforms, en de aanwezigheid van nearby-context-velden. Pagina's waar die signalen ontbreken scoren hoog op hallucinatierisico, omdat het model moet gokken in plaats van extraheren.

