TL;DR: Los asistentes de IA inventan direcciones plausibles pero erróneas con tasas que van del 6 % en hoteles de cadena al 38 % en alquileres vacacionales independientes. La solución no es corregir al modelo. Publica una única ground truth inequívoca mediante marcado Schema.org Place, coordenadas verificadas y un identificador externo canónico, y mantén esa verdad consistente en cada plataforma donde aparece el negocio.
Pregúntale a ChatGPT por la dirección de un hotel de tres estrellas en Oporto y probablemente te responderá con un nombre de calle, un número y un código postal. La respuesta sonará segura. Para las grandes cadenas casi siempre será correcta. Para la pequeña boutique independiente a dos calles, la probabilidad de que sea incorrecta es significativa.
No es un caso raro. Es una salida predecible de cómo los modelos de lenguaje generan texto, y tiene consecuencias directas para cualquier negocio que dependa de que lo encuentren en una ubicación concreta.
La mecánica de una alucinación de ubicación
Un modelo de lenguaje no almacena una base de datos de direcciones. Almacena una distribución estadística sobre tokens. Cuando le preguntas por una dirección, predice una secuencia de tokens que se parece a una dirección para ese tipo de sitio en esa ciudad.
Si los datos de entrenamiento contenían la dirección real muchas veces, de forma consistente y en fuentes autoritativas, la predicción converge hacia la cadena correcta. Si la dirección apareció pocas veces, de forma inconsistente o nunca, el modelo interpola. Elige una calle que suena razonable para el barrio, un número que encaja con la manzana, un código postal que coincide con el patrón local.
La salida es gramaticalmente válida, geográficamente plausible y, muy a menudo, completamente errónea.
Auditoría de muestra: tasas de alucinación por tipo de consulta
Pasamos 500 consultas de ubicación por tres asistentes de IA líderes en abril de 2026. Cada consulta pedía la dirección de un sitio concreto. Las respuestas se compararon con la dirección verificada del sitio registrada en MapAtlas GeoEnrich.
La tabla siguiente muestra el porcentaje de respuestas que contenían al menos un error material en la dirección (calle equivocada, número equivocado, código postal equivocado o ciudad equivocada). Las cifras son orientativas y específicas de esta muestra.
| Tipo de consulta | ChatGPT | Perplexity | Gemini |
|---|---|---|---|
| Hotel de cadena | 6% | 4% | 7% |
| Hotel boutique independiente | 19% | 14% | 22% |
| Alquiler vacacional | 38% | 29% | 41% |
| Restaurante independiente | 24% | 18% | 27% |
| Punto de interés o atracción | 9% | 5% | 8% |
Fuente: auditoría de muestra de MapAtlas, abril de 2026, n=500 consultas.
Hay dos patrones que destacan. Primero, la tasa de alucinación escala con lo escasa e inconsistente que sea la huella web del sitio. Los alquileres vacacionales, que a menudo existen en una sola plataforma de listings sin web propia independiente, son los que más sufren. Segundo, Perplexity alucina de forma consistente menos, probablemente porque su capa de retrieval ancla más respuestas en fuentes vivas en lugar de tirar de memoria paramétrica.
Un ejemplo concreto
Una consulta lanzada en abril de 2026: "¿Cuál es la dirección de la pensión Casa do Vale en Oporto?"
Respuesta alucinada de un asistente líder:
Casa do Vale está ubicada en Rua de Santa Catarina 142, 4000-442 Oporto, Portugal.
Respuesta verificada a partir de los propios registros de la propiedad y de MapAtlas Geocoding:
Casa do Vale, Rua do Vale 38, 4200-512 Oporto, Portugal.
Calle equivocada, código postal equivocado, lado opuesto de la ciudad. La respuesta alucinada envía al huésped a una zona comercial a tres kilómetros de la pensión real. El error no es aleatorio. La Rua de Santa Catarina es la calle comercial más famosa de Oporto y aparece muchísimo en los datos de entrenamiento para consultas de alojamiento en la ciudad. El modelo tiró de la señal estadística más fuerte asociada a Oporto.
Por qué los datos estructurados cambian el resultado
Una página de listing con un bloque JSON-LD de tipo Place o LodgingBusiness bien formado le da al modelo algo que puede extraer en lugar de inventar.
{
"@context": "https://schema.org",
"@type": "LodgingBusiness",
"name": "Casa do Vale",
"address": {
"@type": "PostalAddress",
"streetAddress": "Rua do Vale 38",
"postalCode": "4200-512",
"addressLocality": "Porto",
"addressCountry": "PT"
},
"geo": {
"@type": "GeoCoordinates",
"latitude": 41.1621,
"longitude": -8.5937
},
"identifier": {
"@type": "PropertyValue",
"propertyID": "wikidata",
"value": "Q00000000"
}
}
Tres características de este bloque son clave para reducir alucinaciones:
- Campos estructurados. El modelo no tiene que parsear una frase. Calle, código postal, ciudad y país son claves independientes.
- Coordenadas que coinciden con la dirección. Un crawler puede verificar que la latitud y la longitud caen dentro del polígono del código postal. Si no cuadran, se marca el dato como de baja confianza.
- Un identificador externo estable. Wikidata o un Place ID de Google enlazan el listing con una entidad canónica. El modelo puede reconciliar la dirección contra una fuente autoritativa en lugar de depender de la frecuencia en los datos de entrenamiento.
Cuando se cumplen estas tres condiciones, la extracción sustituye a la generación. La probabilidad de una respuesta alucinada cae en picado.
La capa de consistencia NAP
El schema en la página del listing es necesario, pero no suficiente. Los sistemas de IA cruzan la dirección con otras fuentes públicas: Google Business Profile, OpenStreetMap, Yelp, Tripadvisor, plataformas de reservas y la web abierta. Cuando no coinciden, la confianza baja y el modelo tiende a matizar o a generar.
Por eso la consistencia NAP (Name, Address, Phone) entre plataformas es un predictor de citación más fuerte que cualquier señal individual. Un listing con un schema perfectamente formado pero con una dirección contradictoria en Google Business Profile seguirá rindiendo mal. Te dejamos la mecánica en consistencia NAP para AI search.
Qué tiende a reducir el riesgo de alucinación
Cuatro medidas son las que más mueven la aguja en las auditorías que hemos hecho:
1. Publica coordenadas verificadas junto a la dirección. Una dirección escrita es una cadena de texto. Las coordenadas son un hecho verificable. El Geocoding de MapAtlas convierte direcciones en bruto en latitud y longitud precisas a escala y marca las entradas que no resuelven de forma limpia.
2. Envuelve los hechos de ubicación en JSON-LD. Los tipos Place, LodgingBusiness, Hotel, Restaurant y LocalBusiness aceptan todos los campos address, geo e identifier. Los campos que faltan son justo donde el modelo empieza a adivinar.
3. Reconcilia contra un identificador canónico. Enlaza el listing con un QID de Wikidata o un Place ID de Google. Eso le da a los sistemas de IA una clave primaria contra la que deduplicar.
4. Enriquece con contexto cercano. Las alucinaciones no se limitan al campo de dirección. Los modelos también inventan puntos de interés cercanos, paradas de transporte y tiempos a pie. Los datos de proximidad verificados, generados por GeoEnrich de MapAtlas, anclan también estas afirmaciones. Las FAQs específicas de ubicación son una superficie efectiva para exponer estos datos.
El coste de negocio de una dirección alucinada
Una dirección errónea mostrada por un asistente de IA no solo deja mal al modelo. Envía a un huésped real al sitio equivocado. Los efectos en cadena se acumulan:
- Una reserva cancelada o, peor, un no-show.
- Una reseña negativa que menciona la ubicación equivocada y que después pasa a ser dato de entrenamiento para la siguiente generación de modelos.
- Menor confianza de citación para el listing de ahí en adelante, porque la web pública ya contiene señales contradictorias.
La asimetría es importante. Una dirección alucinada perjudica al listing aunque el listing sea inocente. La solución no es corregir al modelo directamente, algo que no es posible, sino dejar el ground truth lo bastante claro como para que el modelo no tenga motivos para generar en primer lugar.
Cómo comprobar tu propia exposición
El AEO Checker de MapAtlas gratuito evalúa un listing contra 29 señales estructuradas, incluyendo schema de dirección, presencia de coordenadas, consistencia NAP e identificadores externos. Los listings que pasan estas comprobaciones tienen una probabilidad bastante menor de aparecer mal representados en las respuestas de IA. Los que fallan son justo aquellos en los que el modelo tiene que adivinar.
Las alucinaciones de ubicación no son una rareza de un asistente concreto. Son una consecuencia predecible de entrenar sobre una web abierta en la que el mismo negocio aparece con direcciones ligeramente distintas en decenas de fuentes. La solución es publicar un único ground truth en un formato que los sistemas de IA puedan extraer, y mantener ese ground truth consistente en todos los demás sitios en los que el negocio esté representado.
Lecturas relacionadas:
- FAQs específicas de ubicación para AI search
- El SEO pasó de keyword a keyword, ahora es base de datos a base de datos
- Consistencia NAP para AI search
- Comprueba gratis tu puntuación de visibilidad en IA
Preguntas frecuentes
¿Qué es una alucinación de dirección en IA?
Una alucinación de dirección en IA ocurre cuando un modelo de lenguaje grande devuelve una calle, un código postal o unas coordenadas concretas que parecen plausibles pero no corresponden a la ubicación real del negocio, punto de interés o propiedad que se describe. No es un simple error de redondeo. El modelo ha sintetizado una dirección que no existe, pertenece a otro sitio o combina una calle real con la ciudad equivocada. Para un listing esto es especialmente dañino: el usuario puede desplazarse al lugar equivocado antes de darse cuenta de que la respuesta era inventada.
¿Por qué los asistentes de IA alucinan direcciones?
Los modelos de lenguaje generan texto prediciendo el siguiente token más probable, no consultando hechos en una base de datos. Cuando una dirección está infrarrepresentada, es inconsistente en la web o está bloqueada al rastreo, el modelo rellena el hueco con una cadena estadísticamente plausible: un nombre de calle que suena coherente para la ciudad, un patrón de código postal que encaja con la región, un número que parece típico. Sin una fuente estructurada de ground truth que ancle la respuesta, el modelo no tiene forma de distinguir un dato memorizado de uno generado.
¿Con qué frecuencia ocurren las alucinaciones de ubicación en la práctica?
En una auditoría de muestra de MapAtlas realizada en abril de 2026 sobre 500 consultas de ubicación que abarcaban hoteles, alquileres vacacionales, restaurantes y puntos de interés, las tasas de alucinación a nivel de dirección oscilaron entre un 6% aproximado para cadenas hoteleras muy conocidas y un 38% para alquileres vacacionales independientes. Las consultas sobre puntos de interés genéricos fueron las que mejor se comportaron; las consultas de listing de cola larga, las peores. La cifra es orientativa y varía según el modelo, el idioma y la frescura de los datos subyacentes, pero el patrón es consistente: cuanta menos información estructurada expone un sitio, más inventa el modelo.
¿Reducen las alucinaciones los datos estructurados de Schema.org?
Sí, siempre que los datos estén verificados y sean consistentes entre fuentes. Publicar un bloque JSON-LD de tipo Place o LodgingBusiness con coordenadas geo precisas, una dirección postal validada y referencias cruzadas a identificadores autoritativos como Wikidata o el Place ID de Google le da al modelo un ancla de ground truth que puede extraer y citar. Un schema inconsistente, por ejemplo coordenadas que no coinciden con la dirección escrita, tiende a reducir la confianza en lugar de aumentarla.
¿Cómo puedo auditar mis listings para detectar riesgo de alucinación?
Pasa la URL del listing por el AEO Checker gratuito de MapAtlas en mapatlas.eu/ai-seo-checker. El checker evalúa 29 señales estructuradas que los sistemas de IA utilizan para anclar hechos de ubicación, incluyendo coordenadas geo, schema de tipo Place, consistencia NAP entre plataformas y la presencia de campos de contexto cercano. Las páginas a las que les faltan estas señales obtienen una puntuación alta de riesgo de alucinación porque el modelo tiene que adivinar en lugar de extraer.

