TL;DR: In un audit su 100 listing fatto su ChatGPT, Perplexity e Gemini, il tasso di citazione è salito dal 12 % per listing con solo prosa al 71 % per listing con dati geo strutturati completi. I tre segnali che fanno davvero la differenza sono coordinate geo verificate, campi di nearby context e coerenza NAP tra le piattaforme.
Nelle prime due settimane di aprile 2026 abbiamo condotto un audit controllato su 100 listing di localizzazione per rispondere a una domanda: quanto i dati geo strutturati cambiano davvero il tasso a cui un assistente AI cita una listing?
La risposta, in breve, è che lo cambiano di circa sei volte tra il bucket peggiore e quello migliore. Segue la metodologia completa, i risultati per bucket e le implicazioni pratiche per chi sta ottimizzando una listing per l'AI search.
Metodologia
Listing. 100 listing su quattro verticali: 30 case vacanza, 25 hotel boutique, 25 ristoranti indipendenti, 20 attrazioni locali. Le geografie hanno coperto 14 città europee per limitare il bias di singolo mercato. Tutte le listing avevano una homepage attiva e indicizzabile e almeno una presenza su directory di terze parti.
Query set. Quindici template di prompt a intento di discovery per listing, che coprono discovery generica ("hotel boutique tranquilli a Porto"), discovery per feature ("hotel a Porto raggiungibili a piedi dalla metro") e named recall ("Casa do Vale è una buona guesthouse a Porto"). Ogni template è stato inviato fresco, senza cronologia di conversazione, in una sessione pulita.
Modelli. ChatGPT (classe GPT-5), Perplexity, Gemini. Ogni prompt è stato inviato una volta per modello, per un totale di 45 risposte per listing e 4.500 risposte complessive.
Scoring. Una risposta contava come citazione se la listing compariva come fonte collegata, era nominata esplicitamente nella risposta, o entrambe le cose. I match parziali di nome sono stati revisionati manualmente per scartare i falsi positivi.
Bucketing. Ogni listing è stata valutata dal MapAtlas AEO Checker su 29 segnali strutturati, poi raggruppata in quattro bucket di completezza. Le soglie dei bucket sono state stabilite prima dell'inizio dello scoring.
Risultato principale
Il gap del tasso di citazione tra bucket più basso e più alto è stato più ampio di quanto ci aspettassimo.
Source: benchmark MapAtlas, aprile 2026, n=100 listing, 4.500 risposte.
Il bucket più basso, quello delle listing con prosa ricca ma senza dati strutturati, ha raggiunto un tasso di citazione del 12%. Il bucket più alto, quello con schema Place completo, coordinate geografiche verificate, campi di contesto di prossimità, schema FAQ e NAP coerente tra piattaforme, ha raggiunto il 71%.
Analisi segnale per segnale
Per capire quali singoli segnali abbiano trainato il risultato del bucket più alto, abbiamo condotto un'analisi di ablation delle feature. Per ognuno dei sei segnali con peso maggiore, abbiamo confrontato i tassi di citazione tra le listing che avevano il segnale e quelle che ne erano prive, tenendo le altre variabili approssimativamente costanti.
| Segnale | Con segnale | Senza segnale | Lift |
|---|---|---|---|
JSON-LD Place completo con geo | 58% | 19% | 3.1x |
| Dati POI di prossimità verificati | 62% | 24% | 2.6x |
| Campi di prossimità al trasporto | 54% | 22% | 2.5x |
| Schema FAQ con domande di localizzazione | 49% | 26% | 1.9x |
| Coerenza NAP su 3+ piattaforme | 56% | 21% | 2.7x |
| Identificatore esterno (Wikidata / Place ID) | 51% | 27% | 1.9x |
Source: benchmark MapAtlas, aprile 2026.
Quattro spunti da questa tabella:
- Le coordinate geografiche sono il lift singolo più forte. Un blocco Place senza
geoperforma solo marginalmente meglio rispetto all'assenza totale di schema. - Il contesto di prossimità è quasi altrettanto forte. La vicinanza a POI nominati e al trasporto pubblico è il secondo predittore di citazione.
- Lo schema FAQ aiuta, ma meno dei segnali specifici per localizzazione. Le FAQ che rispondono a domande di localizzazione ("quanto dista la metro più vicina") hanno superato nettamente le FAQ operative generiche.
- Gli identificatori esterni pesano più del loro peso apparente. Riconciliare una listing a un QID Wikidata o a un Google Place ID ha quasi raddoppiato il tasso di citazione nell'ablation, probabilmente perché permette ai sistemi AI di deduplicare tra fonti.
Differenze per verticale
L'entità dell'effetto non è stata uniforme tra le verticali. Le case vacanza, che partono dalla baseline più debole, hanno mostrato i guadagni assoluti maggiori grazie ai dati strutturati. I monumenti, già ben rappresentati nei dati di training, hanno mostrato i minori.
| Verticale | Bucket basso | Bucket alto | Gap |
|---|---|---|---|
| Casa vacanza | 7% | 68% | +61 |
| Hotel boutique | 14% | 74% | +60 |
| Ristorante indipendente | 13% | 69% | +56 |
| Attrazione locale | 18% | 72% | +54 |
Source: benchmark MapAtlas, aprile 2026.
Le case vacanza sono il caso più evidente. Una listing che parte invisibile può diventare una fonte citata con regolarità solo grazie ai dati strutturati. L'effetto è più debole, anche se ancora significativo, per i luoghi che hanno già una forte rappresentazione pubblica.
Cosa fa davvero il modello
Durante una review qualitativa di 200 risposte è emerso un pattern ricorrente. Quando una listing aveva dati strutturati completi, l'assistente tendeva a citare fatti specifici: tempo di camminata alla stazione, numero di ristoranti entro 300 metri, nome del quartiere, orari di apertura. Quando alla stessa listing venivano tolti i dati strutturati, l'assistente la ometteva del tutto o la descriveva in termini generici.
Questo è in linea con il comportamento tipico dei modelli retrieval-augmented. Citano preferibilmente fonti che rispondono alla domanda con fatti concreti e verificabili. La prosa che descrive una listing come "tranquilla e raggiungibile a piedi" perde contro un campo strutturato che riporta "walk score 92, indice di rumore medio 18 dB". La seconda versione è più facile da estrarre, più facile da confrontare con la query dell'utente e più facile da attribuire.
Cosa porta una listing dal bucket 1 al bucket 4
Sulla base dell'ablation, quattro cambiamenti spiegano gran parte del lift:
1. Aggiungi un blocco JSON-LD Place o LodgingBusiness completo con coordinate geografiche. Coordinate che corrispondono all'indirizzo postale, un identificatore esterno canonico e tutti i campi Schema.org richiesti. La guida ufficiale Google ai dati strutturati per i local business elenca i campi che pesano di più. Vedi schema JSON-LD per le citazioni AI dei local business per i dettagli a livello di campo.
2. Arricchisci la listing con contesto di prossimità verificato. Tempi a piedi alle fermate del trasporto più vicine, conteggi di ristoranti e bar nei dintorni, POI nominati entro un raggio definito. MapAtlas GeoEnrich lo genera su larga scala da fonti verificate, così da poterlo inserire sia nello schema sia nel copy della pagina.
3. Pubblica schema FAQ specifici per la localizzazione. Domande che mappano direttamente il modo in cui gli utenti formulano le query di localizzazione. Vedi FAQ specifiche per la location per la ricerca AI.
4. Allinea il NAP tra piattaforme. Homepage della listing, Google Business Profile e almeno una directory di terze parti devono mostrare lo stesso nome, indirizzo e numero di telefono. Coerenza NAP per la ricerca AI approfondisce la meccanica.
Limiti
Questo benchmark è indicativo, non definitivo. Tre limitazioni che vale la pena esplicitare:
- Dimensione del campione. 100 listing bastano a vedere effetti grandi ma non a risolvere differenze fini.
- Model drift. Gli assistenti AI si aggiornano spesso. I numeri assoluti si muoveranno, l'ordine relativo dei segnali è più stabile.
- Query mix. I nostri template tendono all'intento di discovery. Le query transazionali ("prenota una stanza a Porto stasera") sono instradate in modo diverso ed erano fuori scope.
Il punto più ampio non è la precisione di un singolo numero. È che il gap tra listing strutturate e non strutturate è ampio, misurabile e in gran parte colmabile con attività che rientrano nel controllo del proprietario della listing.
Misura la tua baseline
Il MapAtlas AEO Checker valuta una listing sugli stessi 29 segnali usati in questo benchmark. Eseguilo sulla tua proprietà più performante, poi su quella più debole. Il delta nel punteggio di solito coincide con il delta nella frequenza con cui ciascuna viene effettivamente citata dagli assistenti AI.
Il tasso di citazione sta diventando l'analogo del ranking organico per la generazione di utenti che cerca tramite AI. Le listing che vincono sono quelle che danno al modello qualcosa da estrarre. Tutto il resto è prosa che il modello ignorerà educatamente.
Letture correlate:
- Perché gli assistenti AI allucinano gli indirizzi
- La SEO era keyword-a-keyword, oggi è database-a-database
- FAQ specifiche per la location per la ricerca AI
- Controlla gratis il tuo punteggio di visibilità AI
Domande frequenti
Cos'è un tasso di citazione AI?
Il tasso di citazione AI è la quota di query utente rilevanti in cui un assistente AI include una specifica listing tra le sue fonti citate o la menziona per nome nella risposta. È l'equivalente, per l'AI search, del ranking organico, ma misurato a livello di risposta invece che di pagina di risultati. Una listing con un tasso di citazione del 40% compare in due risposte su cinque pertinenti tra gli assistenti testati.
Come è stato condotto questo benchmark?
Abbiamo selezionato 100 listing su quattro verticali: case vacanza, hotel boutique, ristoranti indipendenti e attrazioni locali. Ogni listing è stata interrogata 15 volte su ChatGPT, Perplexity e Gemini usando un template standard di domande a intento di discovery. Le risposte sono state valutate per capire se la listing compariva come fonte citata o come raccomandazione nominata. Le listing sono poi state suddivise in bucket in base alla completezza dei dati strutturati misurata dal MapAtlas AEO Checker.
Cosa ha avuto l'impatto maggiore sul tasso di citazione?
Tre segnali hanno spostato di più l'ago: la presenza di un blocco JSON-LD Place o LodgingBusiness completo di coordinate geografiche, un contesto di prossimità verificato come tempi di trasporto e vicinanza a POI nominati, e la coerenza NAP tra Google Business Profile, la homepage della listing e almeno una directory di terze parti. Le listing con punteggio alto su tutti e tre avevano tassi di citazione circa sei volte superiori a quelle con punteggio basso su tutti e tre.
Le descrizioni in prosa da sole sono servite a qualcosa?
Marginalmente. Descrizioni lunghe con keyword di localizzazione ma senza dati strutturati hanno prodotto un tasso di citazione di base intorno al 12%. Aggiungere markup Schema.org senza campi geo verificati lo ha portato a circa il 28%. Aggiungere contesto di prossimità verificato e dati NAP coerenti lo ha ulteriormente alzato fino a circa il 71% per il bucket con il punteggio migliore. La qualità della prosa conta per la fiducia dell'utente una volta citata la listing, ma ha un effetto limitato sul fatto che venga citata in prima battuta.
Come posso misurare il mio tasso di citazione?
Esegui l'URL della tua listing sul MapAtlas AEO Checker gratuito su mapatlas.eu/ai-seo-checker. Il checker valuta gli stessi 29 segnali usati in questo benchmark e segnala quali mancano. Affianca al punteggio prompt manuali periodici su ChatGPT, Perplexity e Gemini per monitorare nel tempo la frequenza con cui la tua listing emerge.

