およそ20年にわたり、検索はキーワード対キーワードのマッチングモデルで動いてきました。ユーザーがキーワードを入力し、ウェブサイトはそのキーワードに最適化され、被リンクとオンページシグナルに支えられた最も一致の強いサイトが上位ランクを獲得する、というモデルです。
いま観察されているのは、これとは別のモデルへの緩やかな移行です。検索は次第に、キーワード対キーワードというよりも、データベース対データベース(database to database)のマッチングのように振る舞うようになっています。この移行の含意、特にロケーションベースのビジネスにとっての意味は、業界の多くでまだ十分に理解されていません。
検索者はすでにデータベースを携えている
この移行であまり語られていない側面のひとつが、ユーザー側で何が変わったかという点です。AIアシスタントで検索するとき、ユーザーはもはや単にキーワードを検索バーに入力しているわけではありません。クエリの解釈を形作るコンテキストの個人データベースを携えて到着しているのです。
ChatGPTのメモリ機能は、ユーザーの好み、過去の会話、保存された事実、セッションをまたぐ繰り返しのテーマを保持します。ユーザーが質問すると、ChatGPTは最新性・頻度・そのメモリとのコンテキスト一致に基づいて回答を優先します。
Perplexity AI Profilesはさらに踏み込みます。ユーザーは自分の位置情報、興味、食事制限、希望言語、コミュニケーションスタイル、個人的な背景を能動的に入力します。Perplexityは検索エンジンが動き出す前に、このコンテキストをすべてのクエリに事前ロードします。
ChatGPTは現在、よりローカルで精度の高い応答を返すためにリアルタイムの位置情報を共有します。GeminiはGoogleのより広いユーザーシグナルのエコシステムに接続されています。すべてのAI検索エンジンが、ユーザーとのやり取りごとに、より豊かで個人的なユーザーデータベースを構築しています。
クエリが発行される時点で、AIアシスタントはすでに、ユーザーが誰で、どこにいて、何を探す傾向があるのかという構造化プロファイルを使って動いています。入力はもはやキーワードではなく、コンテキスト的なデータセットなのです。
ウェブサイト側の方程式
ここで非対称性が見えてきます。多くのウェブサイトは、いまも主にキーワードベースのシグナル、つまりtitleタグ、メタディスクリプション、被リンクといった要素を中心に最適化されています。これらは発見や信頼性に一定の役割を果たし続けています。しかし、しばしば十分に整備されていないのが、AIシステムがコンテンツを解釈して引用するために頼るようになった構造化データベースのレイヤーです。
キーワードはこう言います。「このページは駐車場について書かれています。」
データベースはこう言います。「この施設は緯度41.9028、経度12.4964に40台分の駐車スペースを持ち、高さ制限は2.1メートル、料金は1時間3 EUR、最寄りの代替駐車場は東へ200メートル、半径300メートル以内に12の飲食店、Trastevereエリアに位置し、地下鉄B線(Metro Line B)まで徒歩4分でアクセスできます。」
同じトピックでも、シグナルの強さはまったく異なります。
AI検索エンジンは、純粋なテキストパターンマッチングよりも、エンティティ抽出(entity extraction)に頼る傾向を強めています。構造化データからエンティティを抽出し、それをユーザーのコンテキストと照合します。Googleのナレッジグラフ(Knowledge Graph)だけでも、約540億のエンティティに関する約1.6兆のファクトを保持しており、AIシステムが照合対象とするデータベースの規模感がうかがえます。
ウェブサイトが自身のデータを構造化された機械可読な形で公開していないと、AIはそれをマッチング対象に含めにくくなります。結果として起きるのはランキングの低下というよりも、そもそも検討候補に入る確率の低下です。
データが示していること
キーワード中心のコンテンツと、エンティティや構造化データ中心のコンテンツの間には、意味のあるパフォーマンス差があります。ある研究では、構造化データの有無によるGPT-4の応答精度を比較したところ、正答率は16%から54%に上昇しました。モデルも質問も同一で、違ったのは基盤となるデータインフラだけでした。
他の調査も同じ方向を示しています。スキーママークアップはフィーチャードスニペット(featured snippet)の表示を677%増加させることと関連しています。エンティティ最適化されたコンテンツは、フィーチャードスニペットに表示される確率が約50%高くなります。会話型で構造化されたコンテンツは、従来のキーワード最適化コンテンツのおよそ4倍のAI引用率を得ます。
特に注目すべき数字があります。AI Overviewsの引用の83.3%は、従来のオーガニック検索上位10位より外のページから来ています。
これは、従来のオーガニックランキングとAI引用が、部分的に切り離されたシグナルになりつつあることを示唆します。通常の検索で上位に来るページが、必ずしもAIシステムに引用されるページとは限らないのです。構造化されたエンティティ豊富なデータが、どのページが表に出てくるかを決定づける役割を強めています。
エンティティファーストな戦略の事例では、6ヶ月で最大1400%の可視性向上を記録した例もありますが、これは報告されている範囲の上限寄りの値です。
2つのデータベースがかみ合うとき
ユーザー側のコンテキストと、ウェブサイト側の構造化データがうまくかみ合うと、AIは推測やギャップ埋めをする必要が少なくなります。ウェブサイトから構造化された事実を抽出し、ユーザーのプロファイルや意図と照合し、より高い信頼度と精度で回答を返せるようになります。
Lisbonに滞在中のユーザーが、Perplexity Profileに「歩きやすい街」と「屋外カフェ」への嗜好を登録していると想定してみます。このユーザーが週末滞在用に静かなエリアを尋ねるとします。
このとき、アシスタントは「静かなエリア」というフレーズを本文から探すのではなく、保存された好み(ウォーカビリティ、屋外席、リモートワーク的な利用)を、利用可能な物件の構造化データ、すなわちアイソクローン(isochrone)徒歩圏、密度スコア、近隣カフェ数、騒音レベル、交通アクセスなどと照合できます。
このシナリオで前面に出てくるリスティングは、必ずしもマーケティングコピーが最も強かったり、レビュー数が最も多かったりするものではありません。構造化データがユーザーのコンテキストに最も近く一致するものです。
ビジネスが取るべき実務的なステップ
1. ウェブサイトをデータベースとして扱う。 各ページをマーケティング文書というよりも、レコードの集合として見ると有用です。このフレーミングでは、FAQの回答ひとつひとつが機械可読な事実となり、各フィールドが構造化データポイントに対応します。この発想の転換には、ロケーション固有のFAQが出発点として適しています。
2. 標準形式としてのJSON-LD。 JSON-LDは構造化データを実装しているサイトの約70%で使われており、大きな理由はAIシステムが最小限の摩擦で抽出できる形式だからです。AI認識の面でも、JSON-LDはマイクロデータよりおよそ60%効果的とされます。ビジネス、ロケーション、サービス、FAQ、プロダクト、イベントといった中核エンティティは、適切なスキーマでラップすることで恩恵を受けます。フィールド単位の具体例はローカルビジネスのAI引用のためのJSON-LDスキーマガイドを参照してください。
3. ロケーションエンティティを優先する。 ロケーションベースのビジネスでは、JSON-LDスキーマ内のgeoフィールドが特に大きな重みを持つ傾向があります。座標、サービスエリア、営業時間、交通アクセス、エリア情報が、単なる住所を機械可読なロケーションエンティティに変えます。MapAtlas GeoEnrichはこれらのフィールドを埋めるための検証済み近接データを生成し、Geocodingは生の住所を大規模に正確な座標へ変換します。
4. プラットフォーム間でのデータ整合性。 Google Business Profile、自社サイト、Yelp、その他のソース間で不整合があると、AIシステム内部の信頼度スコアを下げているようです。プラットフォーム間のデータ整合性は、しばしば単一のシグナルよりも影響が大きくなります。仕組みの詳細はAI検索のためのNAP整合性で解説しています。
5. 既存のデータ露出を監査する。 何が実際にAIに対して公開されているかを測ることは、良い出発点です。無料のMapAtlas AEO Checkerは、29の構造化シグナルに対してリスティングを評価し、現時点で欠けているシグナルを示します。
より大きな流れ
この流れの方向性は、一貫したデータポイントのセットに支えられています。AI検索トラフィックは前年比で約721%成長しました。2026年までに検索インタラクションの推定30%がAIを通じて行われると予想されています。Gartnerは、ユーザーがAIアシスタントへ移行することで、従来の検索エンジンの検索量が約25%減少する可能性があると予測しています。
これらを総合すると、いま起きているのは新しいSEO戦術や既存スキーマ運用の調整というより、もっと構造的な変化に見えます。ユーザーとビジネスの間のマッチングの仕組みが、より根本的なレベルで変わりつつあるのです。
キーワードSEOが特定のクエリを取りに行くものだったのに対し、エンティティレベルの最適化はより広いトピックをカバーする傾向があります。データベース対データベースのアライメントという新しいフレーミングは、ユーザーのコンテキストとビジネスの構造化データとの間の対話全体を対象にします。
特にロケーションベースのビジネスにとっては、クリーンで構造化されたデータを公開し、AIシステムがウェブを読む方法にエンティティ情報を合わせていくことが、今後数年の発見戦略(discovery strategy)において、ますます重要な位置を占めていくことになりそうです。
関連記事:
よくある質問
「データベース対データベース」のSEOとはどういう意味ですか?
従来の検索におけるキーワード対キーワードのマッチングから、AI検索におけるエンティティ対エンティティのマッチングへの移行を指します。ユーザーは、好み・位置情報・コンテキストをまとめた構造化プロファイルを携えてAIアシスタントに到着します。ウェブサイト側には、座標・近隣のPOI・営業時間・エリア情報といった構造化データのレイヤーが必要で、AIが自信を持って回答に含められるようにします。関連性は、ページ内にキーワードが何回出現するかではなく、2つのデータセットがどれだけ一致するかで決まります。
なぜキーワード中心のSEOは効果が薄くなっているのですか?
キーワードSEOはユーザーが入力したフレーズに最適化します。しかしAIアシスタントはもはや単一のフレーズだけでは動きません。保存されたメモリ、プロファイルデータ、共有された位置情報、会話履歴を組み合わせてコンテキスト(context)データセットを構築します。「静かなエリア」というフレーズを繰り返すページはAIにほとんど情報を与えません。ウォーカビリティスコア、騒音データ、交通アクセス、カフェの近接情報を構造化して持つページはエンティティレベルでユーザーのコンテキストに一致し、引用される可能性が高くなります。
AIに引用されるために最も重要な構造化データ形式は何ですか?
JSON-LDが主流です。構造化データを実装しているサイトの約70%がJSON-LDを使っており、AI認識においてはマイクロデータ(microdata)よりも約60%効果的とされています。ロケーションベースのビジネスでは、Schema.orgの`LodgingBusiness`・`Hotel`・`Restaurant`・`LocalBusiness`といった型の中にある`geo`・`address`・`amenityFeature`・`nearbyAttraction`・`publicAccess`フィールドが最も重要になります。
自サイトの構造化データを監査するにはどうすればよいですか?
mapatlas.eu/aeo-checkerにある無料のMapAtlas AEO Checkerを実行してください。AIシステムが引用判断に使う29の構造化シグナルに対してリスティング(listing)を評価し、不足・不完全・他の公開ソースと不整合なフィールドを一覧で示します。
ロケーションベースのビジネスにとって最もインパクトのある最初のステップは何ですか?
各ロケーションについて、検証済みの近接インベントリ(proximity inventory)を生成することです。正確な近隣POI・交通距離・エリア情報は、AIアシスタントが会話型クエリにビジネスをマッチさせる際に最も頻繁に使うフィールドであり、同時にリスティングページから最もよく欠落しているフィールドでもあります。MapAtlas GeoEnrichはこのデータを大規模に生成し、Schema.orgマークアップやページ本文に直接埋め込めるようにします。

