На протяжении примерно двух десятилетий поиск работал по модели сопоставления ключевых слов. Пользователь вводит ключевое слово. Сайт оптимизирован под это ключевое слово. Страница с самым сильным совпадением, подкреплённая обратными ссылками и on-page сигналами, получает верхнюю позицию.
Сейчас наблюдается постепенный переход к иной модели. Всё чаще поиск ведёт себя не как сопоставление ключевых слов, а как сопоставление баз данных. Последствия этого сдвига, особенно для локального бизнеса, индустрией пока осознаны не в полной мере.
У ищущего теперь есть собственная база данных
Один из менее обсуждаемых аспектов этого сдвига, это то, что изменилось на стороне пользователя. Когда человек обращается к AI-ассистенту, он больше не просто вводит ключевое слово в строку поиска. Он приходит с персональной базой контекста, которая формирует интерпретацию запроса.
ChatGPT memory хранит предпочтения пользователя, прошлые диалоги, сохранённые факты и повторяющиеся темы между сессиями. Когда пользователь задаёт вопрос, ChatGPT приоритизирует ответ на основе свежести, частоты и контекстного соответствия этой сохранённой памяти.
Perplexity AI Profiles идут дальше. Пользователи сами указывают свою локацию, интересы, диетические ограничения, предпочитаемый язык, стиль коммуникации и личный контекст. Perplexity подгружает этот контекст в каждый запрос ещё до того, как поисковая система начнёт работу.
ChatGPT теперь использует данные о локации в реальном времени для более точных локальных ответов. Gemini подключается к более широкой экосистеме пользовательских сигналов Google. Каждая AI-поисковая система с каждым взаимодействием наращивает более богатую и персональную базу данных о пользователе.
К моменту отправки запроса AI-ассистент уже работает со структурированным профилем: кто этот пользователь, где он находится и что он обычно ищет. На входе больше не ключевое слово. На входе контекстный датасет.
Сторона сайта в этом уравнении
Именно здесь возникает асимметрия. Многие сайты по-прежнему оптимизированы преимущественно вокруг keyword-сигналов: title-тегов, meta-описаний и обратных ссылок, которые продолжают играть роль в discovery и доверии. Что часто развито хуже, это слой структурированной базы данных, на который AI-системы теперь опираются при интерпретации и цитировании контента.
Ключевое слово говорит: «эта страница про парковку».
База данных говорит: «у этого объекта 40 парковочных мест на широте 41.9028, долготе 12.4964. Высотное ограничение 2.1 метра. Почасовой тариф 3 EUR. Ближайшая альтернатива в 200 метрах восточнее. От объекта пешком 12 ресторанов в радиусе 300 метров. Он расположен в районе Trastevere. До Metro Line B 4 минуты».
Та же тема. Совершенно разная сила сигнала.
AI-поисковые системы всё чаще полагаются на entity extraction, а не на чистое сопоставление текстовых паттернов. Они извлекают сущности из структурированных данных и сопоставляют их с контекстом пользователя. Только один Google Knowledge Graph содержит порядка 1.6 триллиона фактов о 54 миллиардах сущностей, что даёт представление о масштабе базы данных, с которой AI-системы проводят сопоставление.
Когда сайт не экспонирует свои данные в структурированном, машиночитаемом формате, AI становится сложно включить его в процесс сопоставления. Последствие здесь не столько снижение позиции, сколько снижение вероятности вообще быть рассмотренным.
Что показывают данные
Разница в производительности между контентом, ориентированным на ключевые слова, и контентом, ориентированным на сущности или структурированные данные, существенна. В одном из исследований точности GPT-4 на контенте со структурированными данными и без них доля корректных ответов выросла с 16% до 54%. Модель и вопрос были идентичны. Различалась инфраструктура данных.
Другие наблюдения указывают в том же направлении. Schema-разметка ассоциируется с ростом показов в featured snippet на 677%. Entity-оптимизированный контент примерно на 50% чаще появляется в featured snippets. Разговорный структурированный контент получает примерно в 4 раза больше AI-цитирований, чем традиционный keyword-оптимизированный контент.
Одна цифра заслуживает особого внимания: 83.3% цитирований AI Overview приходят со страниц за пределами традиционного топа органической выдачи.
Это говорит о том, что классический органический ранкинг и AI-цитирование становятся частично развязанными сигналами. Страницы, хорошо ранжирующиеся в классическом поиске, не обязательно те же, которые цитируются AI-системами. Структурированные данные, богатые сущностями, похоже, играют всё более значимую роль в том, какие страницы всплывают в ответах.
Кейсы entity-first стратегий фиксируют рост видимости до 1400% за шесть месяцев, хотя подобные цифры находятся на верхней границе диапазона.
Когда две базы данных совпадают
Когда контекст на стороне пользователя и структурированные данные на стороне сайта хорошо согласованы, у AI меньше потребности достраивать или восполнять пробелы. Он может извлечь структурированные факты с сайта, сравнить их с профилем и намерением пользователя и вернуть ответ с более высокой уверенностью и точностью.
Рассмотрим пользователя в Лиссабоне с Perplexity Profile, где указаны предпочтения к пешеходным городам и уличным кафе. Он спрашивает про тихий район для weekend-поездки.
Вместо того чтобы искать точное вхождение фразы «тихий район», ассистент может сопоставить сохранённые предпочтения (walkability, уличные посадочные места, контекст удалённой работы) со структурированными данными доступных объектов: изохронами пешей доступности, density-оценками, количеством ближайших кафе, уровнем шума, транспортной доступностью.
В таком сценарии всплывает не обязательно тот листинг, у которого самый сильный маркетинговый текст или больше всего отзывов. Это тот, чьи структурированные данные максимально близко совпадают с контекстом пользователя.
Практические соображения для бизнеса
1. Относиться к сайту как к базе данных. Полезно рассматривать каждую страницу не столько как маркетинговый документ, сколько как набор записей. В такой рамке каждый ответ из FAQ становится машиночитаемым фактом, а каждое поле соответствует структурированной точке данных. Location-specific FAQs хорошая отправная точка для такого сдвига в мышлении.
2. JSON-LD как стандартный формат. JSON-LD используется примерно на 70% сайтов, внедряющих структурированные данные, во многом потому, что это формат, который AI-системы извлекают с минимальным трением. Также показано, что JSON-LD примерно на 60% эффективнее microdata для распознавания AI. Ключевые сущности: бизнес, локация, сервис, FAQ, продукт, событие, выигрывают от оборачивания в подходящие схемы. См. наш гайд по JSON-LD schema для AI-цитирования локального бизнеса с разбором по полям.
3. Локационные сущности как приоритет. Для локального бизнеса поле geo в JSON-LD-схеме имеет особый вес. Координаты, зоны обслуживания, часы работы, транспортная доступность и контекст района превращают обычный адрес в машиночитаемую локационную сущность. MapAtlas GeoEnrich генерирует проверенные proximity-данные, заполняющие эти поля, а Geocoding преобразует сырые адреса в точные координаты в масштабе.
4. Консистентность данных между платформами. Расхождения между Google Business Profile, сайтом, Yelp и аналогичными источниками, по всей видимости, снижают confidence-оценки в AI-системах. Консистентные данные между платформами зачастую влияют сильнее, чем любой отдельный сигнал. NAP consistency для AI-поиска разбирает механику детальнее.
5. Аудит текущей экспозиции данных. Измерение того, что реально видно AI, часто является полезной отправной точкой. Бесплатный MapAtlas AEO Checker оценивает листинг по 29 структурированным сигналам и подсвечивает, какие из них в данный момент отсутствуют.
Более широкий сдвиг
Направление движения подкрепляется согласованным набором данных. AI-трафик в поиске вырос примерно на 721% год к году. По оценкам, к 2026 году около 30% поисковых взаимодействий будут происходить через AI. Gartner прогнозирует, что объём классических поисковых запросов может снизиться примерно на 25% по мере того, как пользователи переходят к AI-ассистентам.
Вместе эти тренды указывают на нечто более структурное, чем новая SEO-тактика или корректировка текущих практик со схемой. Механизм сопоставления пользователей и бизнеса, похоже, меняется на более фундаментальном уровне.
Там где keyword SEO стремилось выиграть конкретные запросы, entity-level оптимизация, как правило, покрывает более широкие темы. Сопоставление «база данных к базе данных», как формирующаяся рамка, касается всего диалога между контекстом пользователя и структурированными данными бизнеса.
Для бизнеса, привязанного к локации, экспонирование чистых, структурированных данных и выравнивание entity-информации с тем, как AI-системы читают веб, вероятно, станет всё более важной частью стратегии discovery в ближайшие годы.
По теме:
- Полный AEO-гайд для локального бизнеса
- Факторы AI-цитирования: домен, схема и geo-данные
- Как AI находит ваш сайт в 2026 году
- Проверьте свой AI visibility score бесплатно
Часто задаваемые вопросы
Что означает SEO по принципу 'база данных к базе данных'?
Это описывает переход от сопоставления ключевых слов в классическом поиске к сопоставлению сущностей в AI-поиске. Пользователь приходит к AI-ассистенту со структурированным профилем предпочтений, локации и контекста. Сайту нужен соответствующий слой структурированных данных: координаты, ближайшие POI, часы работы, контекст района, чтобы AI уверенно включил его в ответ. Релевантность определяется тем, насколько хорошо согласуются два набора данных, а не тем, как часто ключевое слово встречается на странице.
Почему SEO, ориентированное только на ключевые слова, становится менее эффективным?
Keyword SEO оптимизируется под фразу, которую пользователь вводит. AI-ассистенты больше не работают с одной фразой. Они объединяют сохранённую память, данные профиля, общую локацию и историю диалога в контекстный датасет. Страница, повторяющая фразу 'тихий район', сообщает AI очень мало. Страница со структурированными оценками walkability, данными о шуме, транспортной доступности и близости к кафе соответствует контексту пользователя на уровне сущностей и имеет больше шансов быть процитированной.
Какие форматы структурированных данных важнее всего для AI-цитирования?
JSON-LD доминирует. Около 70% сайтов, внедряющих структурированные данные, используют JSON-LD, и он примерно на 60% эффективнее microdata для распознавания AI. Для бизнеса, привязанного к локации, наибольший вес имеют поля `geo`, `address`, `amenityFeature`, `nearbyAttraction` и `publicAccess` внутри типов Schema.org, таких как `LodgingBusiness`, `Hotel`, `Restaurant` и `LocalBusiness`.
Как провести аудит структурированных данных на сайте?
Запустите бесплатный MapAtlas AEO Checker по адресу mapatlas.eu/aeo-checker. Он оценивает листинг по 29 структурированным сигналам, которые AI-системы используют при решениях о цитировании, и показывает, какие поля отсутствуют, заполнены не полностью или расходятся с другими публичными источниками.
Какой первый шаг даёт наибольший эффект для локального бизнеса?
Сформировать проверенный инвентарь proximity-данных для каждой локации. Точные ближайшие POI, расстояния до транспорта и контекст района, это поля, которые AI-ассистенты чаще всего используют для сопоставления бизнеса с разговорным запросом, и именно они чаще всего отсутствуют на страницах листингов. MapAtlas GeoEnrich генерирует такие данные в масштабе, чтобы их можно было встраивать напрямую в Schema.org-разметку и текст страницы.

