Twee decennia lang draaide search op een keyword-naar-keyword matching-model. Gebruiker typt een keyword. Website wordt rond dat keyword geoptimaliseerd. De site met de sterkste match, ondersteund door backlinks en on-page signalen, pakt de top ranking.
Wat we nu zien, is een geleidelijke verschuiving naar een ander model. Search gedraagt zich steeds minder als keyword-naar-keyword matching en steeds meer als database-naar-database matching. De implicaties daarvan, vooral voor locatiegebonden bedrijven, worden door het grootste deel van de industrie nog onderschat.
De zoeker draagt nu zelf een database mee
Een aspect dat weinig aandacht krijgt: er is ook iets veranderd aan de gebruikerskant. Wanneer iemand een AI-assistent gebruikt om te zoeken, tikt diegene niet meer simpelweg een keyword in een zoekbalk. Er komt een persoonlijke database aan context mee die bepaalt hoe de query geïnterpreteerd wordt.
ChatGPT memory slaat voorkeuren, eerdere gesprekken, opgeslagen feiten en terugkerende thema's op, over elke sessie heen. Als een gebruiker een vraag stelt, prioriteert ChatGPT het antwoord op basis van recency, frequency en context matching tegen die opgeslagen memory.
Perplexity AI Profiles gaan verder. Gebruikers vullen actief hun locatie, interesses, dieetwensen, voorkeurstaal, communicatiestijl en persoonlijke context in. Perplexity laadt die context in elke query voordat de search engine überhaupt begint.
ChatGPT deelt inmiddels real-time locatie om lokale antwoorden scherper te maken. Gemini hangt aan Google's bredere user signal ecosysteem. Elke AI search engine bouwt met elke interactie een rijkere, persoonlijkere user database.
Tegen de tijd dat er een query wordt afgevuurd, werkt de AI-assistent al met een gestructureerd profiel van wie de gebruiker is, waar hij of zij zich bevindt, en waar die doorgaans naar zoekt. De input is geen keyword meer. Het is een contextuele dataset.
De kant van de website
Hier ontstaat de asymmetrie. Veel websites zijn nog primair geoptimaliseerd rond keyword-signalen: title tags, meta descriptions en backlinks. Die spelen nog steeds een rol in discovery en trust. Wat vaak minder ontwikkeld is, is de gestructureerde database-laag waar AI-systemen nu op leunen om content te interpreteren en te citeren.
Een keyword zegt: "deze pagina gaat over parkeren."
Een database zegt: "deze venue heeft 40 parkeerplaatsen op latitude 41.9028, longitude 12.4964. Doorrijhoogte is 2,1 meter. Uurtarief is 3 EUR. De dichtstbijzijnde alternatieve plek ligt 200 meter oostelijk. Binnen 300 meter liggen 12 restaurants op loopafstand. De locatie zit in de wijk Trastevere. Metro Line B is in 4 minuten te bereiken."
Zelfde onderwerp. Compleet ander signaalniveau.
AI search engines leunen in toenemende mate op entity extraction in plaats van puur text pattern matching. Ze halen entities uit structured data en matchen die tegen user context. Google's Knowledge Graph alleen al bevat ongeveer 1,6 biljoen feiten over 54 miljard entities, wat iets zegt over de schaal van de database waar AI-systemen tegenaan matchen.
Als een website zijn eigen data niet in een gestructureerd, machine-readable format exposeert, wordt het lastig voor AI om die site in dat matching-proces mee te nemen. Het gevolg is niet zozeer een lagere ranking, maar een lagere kans om überhaupt overwogen te worden.
Wat de data laat zien
De verschillen in performance tussen keyword-gefocuste content en entity- of structured-data-gefocuste content zijn significant. In een studie naar de accuracy van GPT-4 op content met en zonder structured data steeg de correct response rate van 16% naar 54%. Model en vraag waren identiek. De onderliggende data-infrastructuur niet.
Andere bevindingen wijzen dezelfde kant op. Schema markup wordt geassocieerd met een 677% stijging in featured snippet-verschijningen. Entity-geoptimaliseerde content heeft circa 50% meer kans op een featured snippet. Conversationele, gestructureerde content krijgt ruwweg 4x de AI citation rate van traditionele keyword-geoptimaliseerde content.
Een cijfer is extra het noemen waard: 83,3% van de AI Overview-citaties komt van pagina's buiten de traditionele top 10 organic results.
Dat suggereert dat traditionele organic ranking en AI citation deels losgekoppelde signalen worden. Pagina's die goed ranken in conventionele search zijn niet noodzakelijk dezelfde pagina's die door AI-systemen geciteerd worden. Gestructureerde, entity-rijke data lijkt een groeiende rol te spelen in welke pagina's bovendrijven.
Case studies van entity-first strategies documenteren visibility-stijgingen tot 1400% over zes maanden, al zitten resultaten van die omvang aan de hoge kant van de gerapporteerde range.
Wanneer de twee databases aligneren
Als user-side context en website-side structured data goed op elkaar aansluiten, hoeft de AI minder te inferreren of gaten te vullen. Hij kan gestructureerde feiten uit de website trekken, ze matchen tegen het profiel en de intent van de gebruiker, en met hogere confidence een antwoord teruggeven.
Neem een gebruiker in Lissabon met een Perplexity Profile met voorkeuren voor walkable cities en outdoor cafes. Die vraagt om een rustige buurt voor een weekendverblijf.
In plaats van de tekst af te scannen op de zin "rustige buurt", kan de assistent opgeslagen voorkeuren (walkability, outdoor seating, remote work context) matchen tegen structured data van beschikbare properties: isochrone loopafstanden, density scores, aantallen nabije cafés, geluidsniveaus, transit access.
In dat scenario is de listing die bovenkomt niet per se die met de sterkste marketing copy of het hoogste aantal reviews. Het is de listing waarvan de structured data het dichtst bij de context van de gebruiker zit.
Praktische punten voor bedrijven
1. Behandel je website als een database. Zie elke pagina minder als marketingdocument en meer als een set records. In dat frame wordt elk FAQ-antwoord een machine-readable feit, en elk veld correspondeert met een gestructureerd data point. Location-specific FAQs zijn een goed startpunt voor die mindset-shift.
2. JSON-LD als standaardformat. JSON-LD wordt gebruikt door ongeveer 70% van de websites die structured data implementeren, grotendeels omdat het het format is dat AI-systemen met minimale frictie kunnen extracten. JSON-LD is ook aangetoond circa 60% effectiever te zijn dan microdata voor AI-herkenning. Core entities (business, location, service, FAQ, product, event) hebben baat bij een passende schema wrapper. Lees onze guide over JSON-LD schema voor local business AI citations voor veld-specifieke details.
3. Location entities als prioriteit. Voor locatiegebonden bedrijven weegt het geo-veld binnen JSON-LD schema bijzonder zwaar. Coördinaten, service areas, openingstijden, transit access en buurtcontext transformeren een plat adres in een machine-readable location entity. MapAtlas GeoEnrich genereert de geverifieerde proximity data die deze velden vult, en Geocoding zet ruwe adressen op schaal om in precieze coördinaten.
4. Data consistency over platforms heen. Inconsistenties tussen Google Business Profile, de website, Yelp en vergelijkbare bronnen lijken de confidence scores binnen AI-systemen te verlagen. Consistente data over platforms heen is vaak invloedrijker dan welk individueel signaal dan ook. NAP consistency voor AI search behandelt de mechanics uitgebreider.
5. Audit je huidige data-exposure. Meten wat er feitelijk aan AI wordt blootgesteld, is meestal een nuttig startpunt. De gratis MapAtlas AEO Checker evalueert een listing tegen 29 structured signals en laat zien welke er op dit moment ontbreken.
De bredere verschuiving
De richting wordt ondersteund door een consistente set datapunten. AI search traffic is ongeveer 721% year over year gegroeid. Geschat wordt dat 30% van de search-interacties in 2026 via AI verloopt. Gartner voorspelt dat het volume van traditionele search engines mogelijk met circa 25% afneemt naarmate gebruikers naar AI-assistenten verschuiven.
Bij elkaar suggereert dit iets structurelers dan een nieuwe SEO-tactiek of een tweak aan bestaande schema-praktijk. Het matching-mechanisme tussen gebruikers en bedrijven verandert op een fundamenteler niveau.
Waar keyword SEO zich richtte op het winnen van specifieke queries, dekt entity-level optimization bredere topics. Database-to-database alignment, als opkomend frame, gaat over het volledige gesprek tussen de context van een gebruiker en de gestructureerde data van een bedrijf.
Voor locatiegebonden bedrijven in het bijzonder wordt het exposeren van schone, gestructureerde data en het alignen van entity-informatie met hoe AI-systemen het web lezen, de komende jaren een steeds belangrijker onderdeel van discovery strategy.
Verder lezen:
- De complete AEO guide voor lokale bedrijven
- AI citation factors: domain, schema en geo data
- Hoe AI jouw website vindt in 2026
- Check gratis je AI visibility score
Veelgestelde vragen
Wat betekent 'database-naar-database' SEO?
Het beschrijft de verschuiving van keyword-naar-keyword matching in traditionele search naar entity-naar-entity matching in AI search. Gebruikers komen bij een AI-assistent binnen met een gestructureerd profiel van voorkeuren, locatie en context. Websites hebben een matching-laag met structured data nodig: coördinaten, nabijgelegen POIs, openingstijden, buurtcontext. Pas dan kan de AI ze met vertrouwen in een antwoord opnemen. Relevantie wordt bepaald door hoe goed twee datasets op elkaar aansluiten, niet door hoe vaak een keyword op een pagina voorkomt.
Waarom werkt keyword-only SEO steeds minder goed?
Keyword SEO optimaliseert voor een zin die een gebruiker typt. AI-assistenten werken niet meer met één enkele zin. Ze combineren opgeslagen memory, profieldata, gedeelde locatie en conversatiegeschiedenis tot een contextuele dataset. Een pagina die de zin 'rustige buurt' herhaalt, vertelt de AI vrijwel niets. Een pagina met gestructureerde walkability-scores, geluidsdata, transit access en nabijheid van cafés matcht op entity-niveau met de context van de gebruiker en wordt eerder geciteerd.
Welke structured data formats tellen het zwaarst voor AI-citaties?
JSON-LD is het dominante format. Ongeveer 70% van de sites die structured data implementeren gebruikt JSON-LD, en het is circa 60% effectiever dan microdata voor AI-herkenning. Voor locatiegebonden bedrijven wegen de `geo`, `address`, `amenityFeature`, `nearbyAttraction` en `publicAccess` velden binnen Schema.org types als `LodgingBusiness`, `Hotel`, `Restaurant` en `LocalBusiness` het zwaarst.
Hoe audit ik de structured data op mijn site?
Draai de gratis MapAtlas AEO Checker op mapatlas.eu/aeo-checker. Die evalueert een listing tegen 29 gestructureerde signalen die AI-systemen gebruiken voor citatie-beslissingen en laat zien welke velden ontbreken, incompleet zijn of inconsistent met je andere publieke bronnen.
Wat is de first step met de grootste impact voor een locatiegebonden bedrijf?
Genereer een geverifieerde proximity inventory per locatie. Accurate nabijgelegen POIs, transit-afstanden en buurtcontext zijn de velden die AI-assistenten het vaakst gebruiken om een bedrijf aan een conversationele query te koppelen, en precies die velden ontbreken het vaakst op listing pages. MapAtlas GeoEnrich produceert deze data op schaal, zodat je ze direct in Schema.org markup en page copy kunt embedden.

