TL;DR: En una auditoría de 100 listings en ChatGPT, Perplexity y Gemini, la tasa de citación subió del 12 % en listings solo de texto al 71 % en listings con datos geo estructurados completos. Las tres señales que más movieron la aguja fueron las coordenadas geo verificadas, los campos de nearby context y la consistencia NAP entre plataformas.
Durante las dos primeras semanas de abril de 2026 hicimos una auditoría controlada sobre 100 listings basados en ubicación para responder a una pregunta: ¿cuánto cambia realmente el dato geo estructurado la frecuencia con la que un asistente de IA cita un listing?
La respuesta corta es que la multiplica por unas seis veces entre el peor y el mejor bucket. Lo que viene es la metodología completa, los resultados por bucket y las implicaciones prácticas para cualquiera que esté optimizando un listing para AI search.
Metodología
Listings. 100 listings en cuatro verticales: 30 alquileres vacacionales, 25 hoteles boutique, 25 restaurantes independientes y 20 atracciones locales. Las geografías abarcaron 14 ciudades europeas para limitar el sesgo de un solo mercado. Todos los listings tenían una home activa e indexable y al menos presencia en un directorio externo.
Set de consultas. Quince plantillas de prompt con intención de descubrimiento por listing, cubriendo descubrimiento genérico ("hoteles boutique tranquilos en Oporto"), descubrimiento por atributo ("hoteles en Oporto andando al metro") y recall nombrado ("¿es Casa do Vale una buena pensión en Oporto?"). Cada plantilla se lanzó en fresco, sin historial de conversación, en una sesión limpia.
Modelos. ChatGPT (clase GPT-5), Perplexity, Gemini. Cada prompt se lanzó una vez por modelo, dando 45 respuestas por listing y 4.500 respuestas en total.
Scoring. Una respuesta contaba como citación si el listing aparecía como fuente enlazada, se nombraba explícitamente en la respuesta, o ambas. Las coincidencias parciales de nombre se revisaron a mano para descartar falsos positivos.
Bucketing. Cada listing se puntuó con el AEO Checker de MapAtlas sobre 29 señales estructuradas y se agrupó en cuatro buckets de completitud. Los umbrales de bucket se fijaron antes de empezar el scoring.
Resultado principal
La brecha de tasa de citación entre el bucket inferior y el superior fue mayor de lo que esperábamos.
Fuente: benchmark de MapAtlas, abril de 2026, n=100 listings, 4.500 respuestas.
El bucket inferior, listings con prosa rica pero sin datos estructurados, alcanzó una tasa de citación del 12%. El bucket superior, listings con schema Place completo, coordenadas geo verificadas, campos de contexto cercano, FAQ schema y NAP consistente entre plataformas, llegó al 71%.
Desglose señal por señal
Para entender qué señales individuales impulsaron el resultado del bucket superior, hicimos un análisis de ablación por feature. Para cada una de las seis señales de mayor peso, comparamos la tasa de citación entre listings que tenían la señal y listings que no la tenían, manteniendo las demás variables aproximadamente constantes.
| Señal | Con señal | Sin señal | Lift |
|---|---|---|---|
JSON-LD Place completo con geo | 58% | 19% | 3.1x |
| Dato verificado de POIs cercanos | 62% | 24% | 2.6x |
| Campos de proximidad a transporte | 54% | 22% | 2.5x |
| FAQ schema con preguntas de ubicación | 49% | 26% | 1.9x |
| Consistencia NAP en 3+ plataformas | 56% | 21% | 2.7x |
| Identificador externo (Wikidata / Place ID) | 51% | 27% | 1.9x |
Fuente: benchmark de MapAtlas, abril de 2026.
Cuatro lecturas de esta tabla:
- Las coordenadas geo son el lift individual más fuerte. Un bloque Place sin
georinde solo marginalmente mejor que no tener schema. - El contexto cercano casi iguala al anterior. La proximidad a POIs nombrados y a transporte es el segundo mayor predictor de citación.
- El FAQ schema ayuda, pero menos que las señales específicas de ubicación. Las FAQs que responden a preguntas de ubicación ("a qué distancia está el metro más cercano") superaron por mucho a las FAQs operativas genéricas.
- Los identificadores externos pegan más fuerte de lo que parece. Reconciliar un listing con un QID de Wikidata o un Place ID de Google casi dobló la tasa de citación en la ablación, probablemente porque permite a los sistemas de IA deduplicar entre fuentes.
Diferencias por vertical
El tamaño del efecto no fue uniforme entre verticales. Los alquileres vacacionales, que parten del baseline más débil, mostraron las mayores ganancias absolutas con datos estructurados. Los puntos de interés, que ya están bien representados en los datos de entrenamiento, mostraron las menores.
| Vertical | Bucket inferior | Bucket superior | Brecha |
|---|---|---|---|
| Alquiler vacacional | 7% | 68% | +61 |
| Hotel boutique | 14% | 74% | +60 |
| Restaurante independiente | 13% | 69% | +56 |
| Atracción local | 18% | 72% | +54 |
Fuente: benchmark de MapAtlas, abril de 2026.
Los alquileres vacacionales son la victoria más clara. Un listing que parte invisible puede convertirse en una fuente citada de forma consistente solo con datos estructurados. El efecto es más débil, aunque todavía significativo, para establecimientos que ya tienen una representación pública fuerte.
Qué hace realmente el modelo
Durante la revisión cualitativa de 200 respuestas emergió un patrón recurrente. Cuando un listing tenía datos estructurados completos, el asistente tendía a citar hechos concretos: tiempo andando hasta la estación, número de restaurantes en 300 metros, nombre del barrio, horario. Cuando ese mismo listing se despojaba de sus datos estructurados, el asistente o lo omitía del todo o lo describía en términos genéricos.
Esto encaja con cómo suelen comportarse los modelos con retrieval. Citan preferentemente fuentes que responden a la pregunta con hechos concretos y verificables. La prosa que describe un listing como "tranquilo y caminable" pierde frente a un campo estructurado que diga "walk score 92, índice de ruido 18 dB de media". La segunda versión es más fácil de extraer, más fácil de comparar con la query del usuario y más fácil de atribuir.
Qué mueve un listing del Bucket 1 al Bucket 4
Según la ablación, cuatro cambios explican la mayor parte del lift:
1. Añade un bloque JSON-LD completo de Place o LodgingBusiness con coordenadas geo. Coordenadas que coincidan con la dirección postal, un identificador externo canónico y todos los campos obligatorios de Schema.org. La propia guía de datos estructurados para negocios locales de Google enumera los campos que más peso tienen. Los detalles campo a campo están en schema JSON-LD para citaciones de negocios locales en IA.
2. Enriquece el listing con contexto cercano verificado. Tiempos andando a las paradas de transporte más cercanas, recuentos de restaurantes y cafeterías próximos, POIs nombrados dentro de un radio definido. GeoEnrich de MapAtlas genera esto a escala desde fuentes verificadas para que pueda incrustarse tanto en el schema como en el copy de la página.
3. Publica FAQ schema específico de ubicación. Preguntas que se correspondan directamente con cómo los usuarios formulan las consultas de ubicación. Ver FAQs específicas de ubicación para AI search.
4. Reconcilia el NAP entre plataformas. La home del listing, Google Business Profile y al menos un directorio externo deberían mostrar todos el mismo nombre, dirección y teléfono. Consistencia NAP para AI search cubre la mecánica.
Matices
Este benchmark es orientativo, no definitivo. Tres limitaciones que vale la pena explicitar:
- Tamaño muestral. 100 listings bastan para ver efectos grandes, pero no para resolver diferencias finas.
- Drift de los modelos. Los asistentes de IA se actualizan muy a menudo. Los números absolutos se moverán; el orden relativo de las señales es más estable.
- Mix de consultas. Nuestras plantillas tienden a intención de descubrimiento. Las consultas transaccionales ("reservar habitación en Oporto esta noche") se enrutan de forma distinta y quedaron fuera de alcance.
El punto más amplio no es la precisión de ningún número concreto. Es que la brecha entre listings estructurados y no estructurados es grande, medible y en gran parte cerrable con trabajo que está dentro del control del dueño del listing.
Mide tu propio baseline
El AEO Checker de MapAtlas puntúa un listing contra las mismas 29 señales usadas en este benchmark. Pásalo por tu propiedad con mejor rendimiento y luego por la más débil. La diferencia en la puntuación suele coincidir con la diferencia en con qué frecuencia cada una aparece en las respuestas de los asistentes de IA en la práctica.
La tasa de citación se está convirtiendo en el análogo del ranking orgánico para la generación de usuarios que buscan a través de IA. Los listings que ganan son aquellos que le dan al modelo algo que extraer. Todo lo demás es prosa que el modelo va a ignorar con educación.
Lecturas relacionadas:
- Por qué los asistentes de IA alucinan direcciones
- El SEO pasó de keyword a keyword, ahora es base de datos a base de datos
- FAQs específicas de ubicación para AI search
- Comprueba gratis tu puntuación de visibilidad en IA
Preguntas frecuentes
¿Qué es la tasa de citación en IA?
La tasa de citación en IA es el porcentaje de consultas relevantes de usuario en las que un asistente de IA incluye un listing concreto en sus fuentes citadas o lo menciona por su nombre en la respuesta. Es el equivalente al ranking orgánico en AI search, pero medido a nivel de respuesta en lugar de a nivel de página de resultados. Un listing con una tasa de citación del 40% aparece en dos de cada cinco respuestas relevantes en los asistentes probados.
¿Cómo se realizó este benchmark?
Seleccionamos 100 listings en cuatro verticales: alquileres vacacionales, hoteles boutique, restaurantes independientes y atracciones locales. Cada listing se consultó 15 veces en ChatGPT, Perplexity y Gemini usando una plantilla estándar de preguntas con intención de descubrimiento. Las respuestas se puntuaron según si el listing aparecía como fuente citada o como recomendación nombrada. Los listings se agruparon después por su nivel de datos estructurados, medido con el AEO Checker de MapAtlas.
¿Qué tuvo el mayor efecto sobre la tasa de citación?
Tres señales son las que más movieron la aguja: presencia de un bloque JSON-LD completo de Place o LodgingBusiness con coordenadas geo, contexto cercano verificado como tiempos de transporte y proximidad a POIs nombrados, y consistencia NAP entre Google Business Profile, la web del listing y al menos un directorio externo. Los listings con puntuación alta en las tres tuvieron tasas de citación aproximadamente seis veces superiores a los listings con puntuación baja en las tres.
¿Las descripciones en prosa ayudaron por sí solas?
Solo marginalmente. Descripciones largas en prosa con keywords de ubicación pero sin datos estructurados produjeron una tasa de citación base de alrededor del 12%. Añadir marcado de Schema.org sin campos geo verificados la elevó a cerca del 28%. Añadir contexto cercano verificado y datos NAP consistentes la subió hasta aproximadamente el 71% en el mejor bucket. La calidad de la prosa importa para la confianza del usuario una vez citado el listing, pero tiene un efecto limitado sobre si el listing llega a ser citado en primer lugar.
¿Cómo puedo medir mi propia tasa de citación?
Pasa la URL de tu listing por el AEO Checker gratuito de MapAtlas en mapatlas.eu/ai-seo-checker. El checker puntúa las mismas 29 señales usadas en este benchmark y marca cuáles faltan. Combina la puntuación con prompts manuales periódicos en ChatGPT, Perplexity y Gemini para monitorizar con qué frecuencia aparece tu listing a lo largo del tiempo.

