TL;DR: ИИ-ассистенты выдумывают правдоподобные, но ошибочные адреса с частотой от 6 % у сетевых отелей до 38 % у независимых апартаментов. Решение состоит не в том, чтобы корректировать модель. Опубликуйте однозначную ground truth через разметку Schema.org Place, верифицированные координаты и канонический внешний идентификатор, и удерживайте эту истину согласованной на каждой платформе, где появляется бизнес.
Спросите ChatGPT адрес трёхзвёздочного отеля в Порту, и он почти наверняка ответит названием улицы, номером дома и почтовым индексом. Ответ прозвучит уверенно. Для крупных сетей он, как правило, будет верным. Для независимого бутик-отеля в двух улицах оттуда ответ имеет заметную вероятность оказаться ошибочным.
Это не редкий пограничный случай. Это предсказуемый результат того, как языковые модели порождают текст, и он напрямую бьёт по любому бизнесу, чья работа зависит от нахождения в конкретной точке.
Механика геогаллюцинации
Языковая модель не хранит базу данных адресов. Она хранит статистическое распределение по токенам. Когда у неё запрашивают адрес, она предсказывает последовательность токенов, которая выглядит как адрес заведения такого типа в этом городе.
Если в обучающих данных реальный адрес встречался многократно, согласованно и в авторитетных источниках, предсказание сходится к правильной строке. Если адрес появлялся редко, противоречиво или не появлялся вовсе, модель интерполирует. Она подбирает улицу, подходящую району по звучанию, номер, подходящий кварталу, и почтовый индекс, укладывающийся в локальный шаблон.
Результат грамматически корректен, географически правдоподобен и зачастую полностью неверен.
Выборочный аудит: частота галлюцинаций по типу запроса
В апреле 2026 года мы прогнали 500 локационных запросов через три ведущих ИИ-ассистента. Каждый запрос касался адреса конкретного заведения. Ответы сверялись с верифицированным адресом объекта в MapAtlas GeoEnrich.
В таблице ниже приведена доля ответов, содержащих хотя бы одну существенную адресную ошибку (неверная улица, неверный номер, неверный индекс или неверный город). Цифры ориентировочны и относятся к данной выборке.
| Тип запроса | ChatGPT | Perplexity | Gemini |
|---|---|---|---|
| Сетевой отель | 6% | 4% | 7% |
| Независимый бутик-отель | 19% | 14% | 22% |
| Апартаменты (vacation rental) | 38% | 29% | 41% |
| Независимый ресторан | 24% | 18% | 27% |
| Достопримечательность | 9% | 5% | 8% |
Источник: выборочный аудит MapAtlas, апрель 2026, n=500 запросов.
Выделяются два паттерна. Во-первых, частота галлюцинаций растёт по мере того, как веб-след заведения становится разрежённым и противоречивым. Апартаменты, которые часто существуют на единственной платформе бронирования без независимого сайта, страдают сильнее всех. Во-вторых, Perplexity стабильно галлюцинирует меньше, вероятно потому, что его слой retrieval чаще опирается на живые источники, а не на параметрическую память модели.
Разбор конкретного случая
Запрос, сделанный в апреле 2026 года: «Какой адрес у гостевого дома Casa do Vale в Порту?»
Галлюцинированный ответ одного из ведущих ассистентов:
Casa do Vale находится по адресу Rua de Santa Catarina 142, 4000-442 Porto, Portugal.
Верифицированный ответ по собственным данным объекта и MapAtlas Geocoding:
Casa do Vale, Rua do Vale 38, 4200-512 Porto, Portugal.
Неверная улица, неверный индекс, не та сторона города. Галлюцинированный ответ отправляет гостя в торговый квартал в трёх километрах от фактического гостевого дома. Ошибка не случайна. Rua de Santa Catarina является самой известной торговой улицей Порту и активно представлена в обучающих данных по запросам о размещении в Порту. Модель по умолчанию ушла к сильнейшему статистическому приору для этого города.
Почему структурированные данные меняют исход
Страница листинга с корректно сформированным JSON-LD блоком Place или LodgingBusiness даёт модели то, что можно извлечь, а не выдумать.
{
"@context": "https://schema.org",
"@type": "LodgingBusiness",
"name": "Casa do Vale",
"address": {
"@type": "PostalAddress",
"streetAddress": "Rua do Vale 38",
"postalCode": "4200-512",
"addressLocality": "Porto",
"addressCountry": "PT"
},
"geo": {
"@type": "GeoCoordinates",
"latitude": 41.1621,
"longitude": -8.5937
},
"identifier": {
"@type": "PropertyValue",
"propertyID": "wikidata",
"value": "Q00000000"
}
}
Для снижения галлюцинаций важны три особенности этого блока:
- Структурированные поля. Модели не нужно разбирать предложение. Улица, индекс, город и страна представляют собой отдельные ключи.
- Координаты, соответствующие адресу. Краулер может проверить, что широта и долгота попадают в полигон почтового индекса. Несовпадения помечают данные как ненадёжные.
- Стабильный внешний идентификатор. Wikidata или Google Place ID привязывают листинг к канонической сущности. Модель может сверять адрес с авторитетным источником, а не полагаться на частотность в обучающих данных.
Когда все три условия выполнены, извлечение замещает генерацию. Вероятность галлюцинированного ответа резко падает.
Слой согласованности NAP
Разметка на странице листинга необходима, но недостаточна. ИИ-системы сверяют адрес с другими публичными источниками: Google Business Profile, OpenStreetMap, Yelp, Tripadvisor, платформами бронирования и открытым вебом. Когда они расходятся, уверенность падает, и модель с большей вероятностью начинает хеджировать или генерировать.
Именно поэтому согласованность Name, Address, Phone (NAP) между платформами является более сильным предиктором цитирования, чем любой отдельный сигнал. Листинг с идеально оформленной разметкой, но противоречивым адресом в Google Business Profile всё равно покажет слабый результат. Механика подробно разобрана в материале Согласованность NAP для ИИ-поиска.
Что реально снижает риск галлюцинаций
Четыре меры дают наибольший сдвиг стрелки в проводимых нами аудитах:
1. Публикуйте верифицированные координаты рядом с адресом. Текстовый адрес является строкой. Координаты являются проверяемым фактом. MapAtlas Geocoding конвертирует сырые адреса в точные широту и долготу в масштабе и помечает входные данные, которые не разрешаются чисто.
2. Оборачивайте геофакты в JSON-LD. Типы Place, LodgingBusiness, Hotel, Restaurant и LocalBusiness принимают поля address, geo и identifier. Пропущенные поля находятся ровно там, где модель начинает угадывать.
3. Сводите данные к каноническому идентификатору. Привязывайте листинг к QID в Wikidata или Google Place ID. Это даёт ИИ-системам первичный ключ для дедупликации.
4. Обогащайте контекстом окружения. Галлюцинации не ограничиваются полем адреса. Модели также выдумывают ближайшие достопримечательности, остановки транспорта и время пешей прогулки. Верифицированные данные о близости, генерируемые MapAtlas GeoEnrich, закрепляют и эти утверждения. Локационные FAQ представляют собой эффективную поверхность для экспонирования этих данных.
Бизнес-цена галлюцинированного адреса
Неверный адрес, выданный ИИ-ассистентом, не просто ставит модель в неловкое положение. Он отправляет реального гостя не туда. Последствия накапливаются:
- Отменённое бронирование или, что хуже, неявка.
- Негативный отзыв, в котором упомянуто не то место, который затем попадёт в обучающие данные следующего поколения моделей.
- Сниженная уверенность в цитировании листинга на будущее, потому что в открытом вебе теперь есть противоречивые сигналы.
Асимметрия здесь важна. Галлюцинированный адрес бьёт по листингу, даже если сам листинг ни в чём не виноват. Решение не в том, чтобы исправить модель напрямую, что невозможно, а в том, чтобы сделать источник истины достаточно однозначным, чтобы у модели не было повода генерировать в принципе.
Как проверить собственную уязвимость
Бесплатный MapAtlas AEO Checker оценивает листинг по 29 структурированным сигналам, включая адресную разметку, наличие координат, согласованность NAP и внешние идентификаторы. Листинги, проходящие эти проверки, существенно реже искажаются в ответах ИИ. Листинги, не проходящие их, относятся к тем, где модели приходится угадывать.
Геогаллюцинации не являются причудой какого-то одного ассистента. Это предсказуемое следствие обучения на открытом вебе, где один и тот же бизнес появляется со слегка разными адресами в десятках источников. Решение состоит в том, чтобы опубликовать один источник истины в формате, который ИИ-системы могут извлечь, и сделать этот источник согласованным везде, где бизнес представлен.
По теме:
- Локационные FAQ для ИИ-поиска
- SEO было «ключ к ключу», теперь это «база к базе»
- Согласованность NAP для ИИ-поиска
- Проверьте свой показатель видимости в ИИ бесплатно
Часто задаваемые вопросы
Что такое адресная галлюцинация ИИ?
Адресная галлюцинация ИИ возникает, когда большая языковая модель возвращает конкретный адрес, почтовый индекс или координаты, которые выглядят правдоподобно, но не соответствуют реальному расположению описываемого заведения, достопримечательности или объекта. Это не мелкая погрешность округления. Модель синтезировала адрес, которого не существует, принадлежащий другому месту или объединяющий реальную улицу с неправильным городом. Для листингов это особенно разрушительно: пользователь может приехать не туда, прежде чем поймёт, что ответ был сфабрикован.
Почему ИИ-ассистенты галлюцинируют адреса?
Языковые модели генерируют текст, предсказывая наиболее вероятный следующий токен, а не обращаясь к фактам. Когда адрес слабо представлен в обучающих данных, противоречиво описан в интернете или закрыт для индексации, модель заполняет пробел статистически правдоподобной строкой: название улицы, которое звучит уместно для города, шаблон почтового индекса, подходящий региону, номер дома, который кажется типичным. Без структурированного источника истины у модели нет механизма отличить запомненный факт от сгенерированного.
Насколько часто случаются геогаллюцинации на практике?
В выборочном аудите MapAtlas, проведённом в апреле 2026 года по 500 локационным запросам об отелях, апартаментах, ресторанах и достопримечательностях, уровень адресных галлюцинаций варьировался примерно от 6% для известных сетевых отелей до 38% для независимых апартаментов. Запросы по общеизвестным достопримечательностям показали лучший результат, а хвостовые запросы по листингам худший. Показатели ориентировочны и зависят от модели, языка и свежести исходных данных, но закономерность устойчива: чем меньше структурированных данных публикует объект, тем больше модель додумывает.
Снижает ли разметка Schema.org число галлюцинаций?
Да, если данные верифицированы и согласованы между источниками. Публикация JSON-LD блока Place или LodgingBusiness с точными географическими координатами, валидированным почтовым адресом и перекрёстными ссылками на авторитетные идентификаторы, такие как Wikidata или Google Place ID, даёт модели якорь истины, из которого можно извлекать данные и цитировать их. Противоречивая разметка, например координаты, не совпадающие с текстовым адресом, скорее снижает уверенность модели, чем повышает её.
Как проверить свои листинги на риск галлюцинаций?
Прогоните URL листинга через бесплатный MapAtlas AEO Checker на mapatlas.eu/ai-seo-checker. Чекер оценивает 29 структурированных сигналов, которые ИИ-системы используют для привязки геофактов: географические координаты, разметку Place, согласованность NAP между платформами, наличие полей с контекстом окружения. Страницы без этих сигналов получают высокий риск галлюцинаций, потому что модели приходится угадывать, а не извлекать.

