지난 20년 가까이 검색은 키워드 대 키워드 매칭 모델로 돌아갔다. 사용자가 키워드를 입력한다. 웹사이트는 그 키워드에 최적화돼 있다. 가장 매칭이 강한 사이트가, 백링크랑 온페이지 시그널로 받쳐지면서 최상위 랭킹을 가져간다.
근데 지금 관찰되는 건 그와 다른 모델로의 점진적인 이동이다. 점점 더 검색이 키워드 대 키워드 매칭이 아니라 데이터베이스 대 데이터베이스 매칭처럼 동작하고 있다. 이 변화가 가지는 함의, 특히 위치 기반 비즈니스한테는 업계 대부분이 아직 제대로 이해 못 한 부분이다.
검색하는 사람도 이제 데이터베이스를 들고 온다
이 변화에서 상대적으로 덜 논의되는 측면이 하나 있는데, 바로 사용자 쪽에서 뭐가 바뀌었느냐다. 누군가 AI 어시스턴트로 검색할 때, 이제 그 사람은 그냥 검색창에 키워드를 치고 있는 게 아니다. 쿼리가 어떻게 해석될지 결정짓는 개인 컨텍스트 데이터베이스를 들고 접속하는 거다.
ChatGPT memory는 세션을 넘나들며 사용자 선호, 과거 대화, 저장된 팩트, 반복되는 주제를 저장한다. 사용자가 질문하면 ChatGPT는 그 저장된 메모리 대비 최근성, 빈도, 컨텍스트 매칭에 따라 답변에 우선순위를 매긴다.
Perplexity AI Profiles는 한 발 더 나간다. 사용자가 본인 위치, 관심사, 식이 요구사항, 선호 언어, 커뮤니케이션 스타일, 개인 컨텍스트를 직접 입력한다. Perplexity는 검색 엔진이 돌기도 전에 이 컨텍스트를 모든 쿼리에 미리 로드한다.
ChatGPT는 이제 실시간 위치를 공유해서 더 정밀한 로컬 답변을 내놓는다. Gemini는 Google의 더 넓은 사용자 시그널 생태계에 연결된다. 모든 AI 검색 엔진이 인터랙션할 때마다 더 풍부하고 더 개인적인 사용자 데이터베이스를 쌓고 있다.
쿼리가 발사되는 시점엔 AI 어시스턴트가 이미 사용자가 누구인지, 어디 있는지, 뭘 주로 찾는지에 대한 구조화된 프로파일을 들고 작업하고 있다. 입력은 더 이상 키워드가 아니다. 컨텍스트 데이터셋이다.
웹사이트 쪽 방정식
여기서 비대칭이 드러나는 경향이 있다. 많은 웹사이트가 여전히 주로 키워드 기반 시그널, 그러니까 title tag, meta description, 백링크 중심으로 최적화돼 있다. 이것들이 발견과 신뢰에서 역할을 하는 건 맞다. 근데 덜 발달한 부분이, AI 시스템이 콘텐츠를 해석하고 인용할 때 이제 의존하는 구조화된 데이터베이스 레이어다.
키워드는 이렇게 말한다: "이 페이지는 주차에 관한 거다."
데이터베이스는 이렇게 말한다: "이 장소에는 위도 41.9028, 경도 12.4964에 40개의 주차 공간이 있다. 차량 높이 제한은 2.1미터. 시간당 요금은 3 EUR. 가장 가까운 대안은 동쪽 200미터. 300미터 반경 안에 걸어갈 수 있는 레스토랑이 12개. Trastevere 동네에 위치. Metro Line B까지 4분."
같은 주제. 시그널 강도는 완전히 다르다.
AI 검색 엔진은 순수 텍스트 패턴 매칭보다 점점 엔티티 추출에 의존하고 있다. 구조화된 데이터에서 엔티티를 뽑아내서 사용자 컨텍스트랑 매칭한다. Google의 Knowledge Graph만 해도 540억 개 엔티티에 대해 약 1.6조 개의 팩트를 담고 있는데, AI 시스템이 매칭 상대로 삼는 데이터베이스 스케일이 어느 정도인지 감이 올 거다.
웹사이트가 자기 데이터를 구조화되고 기계가 읽을 수 있는 포맷으로 노출하지 않으면, AI가 그걸 매칭 프로세스에 포함시키기가 어려워진다. 결과는 랭킹이 낮아지는 것보다는 아예 고려 대상조차 되기 힘들다는 쪽에 가깝다.
데이터가 말해주는 것
키워드 중심 콘텐츠랑 엔티티/구조화 데이터 중심 콘텐츠 사이의 성능 차이는 무시할 수준이 아니다. 구조화 데이터 있는 콘텐츠 대 없는 콘텐츠로 GPT-4의 정확도를 비교한 한 연구에서, 정답률이 16%에서 54%로 올랐다. 모델이랑 질문은 동일했다. 바뀐 건 밑단의 데이터 인프라뿐이었다.
다른 데이터도 비슷한 방향을 가리킨다. Schema 마크업은 featured snippet 노출 677% 증가랑 연관된다. 엔티티 최적화된 콘텐츠는 featured snippet에 나타날 확률이 약 50% 더 높다. 대화형이면서 구조화된 콘텐츠는 전통적인 키워드 최적화 콘텐츠 대비 약 4배의 AI 인용률을 받는다.
특히 주목할 만한 수치 하나: AI Overview 인용의 83.3%가 전통적인 top 10 오가닉 결과 바깥 페이지에서 나온다.
이건 전통적인 오가닉 랭킹이랑 AI 인용이 부분적으로 분리된 시그널이 되고 있다는 얘기다. 기존 검색에서 랭킹 잘 받는 페이지랑 AI 시스템이 인용하는 페이지가 꼭 같지 않다. 어떤 페이지가 표면에 올라올지 결정하는 데 구조화되고 엔티티 풍부한 데이터의 역할이 점점 커지고 있는 거다.
엔티티 우선 전략 케이스 스터디에서는 6개월 동안 최대 1400%까지 가시성 증가가 문서화되기도 했다. 물론 그 정도 규모는 보고된 범위의 상위 끝쪽이긴 하다.
두 데이터베이스가 정렬될 때
사용자 쪽 컨텍스트랑 웹사이트 쪽 구조화 데이터가 잘 맞을 때, AI는 추론하거나 빈칸을 채울 필요가 줄어든다. 웹사이트에서 구조화된 팩트를 뽑고, 사용자 프로파일이랑 의도에 비교하고, 더 높은 확신과 정확도로 답변을 리턴할 수 있다.
Lisbon에 있는 사용자를 생각해보자. Perplexity Profile에 walkable cities랑 outdoor cafes 선호가 들어가 있다. 주말 스테이로 조용한 동네를 추천해달라고 물어본다.
어시스턴트는 '조용한 동네'라는 문구를 스캔하는 대신, 저장된 선호(walkability, 야외 좌석, 원격 근무 컨텍스트)를 가용 매물의 구조화 데이터(isochrone 도보 거리, 밀도 점수, 근처 카페 수, 소음 수준, 대중교통 접근성)랑 매칭한다.
이 시나리오에서 표면에 올라오는 리스팅은 꼭 마케팅 카피가 제일 쎈 것도, 리뷰 수가 제일 많은 것도 아니다. 구조화 데이터가 사용자 컨텍스트에 가장 가깝게 정렬된 리스팅이다.
비즈니스 입장에서 실용적인 고려사항
1. 웹사이트를 데이터베이스로 다루기. 각 페이지를 마케팅 문서보다는 레코드의 집합으로 보는 게 도움이 될 수 있다. 그 프레이밍에서 FAQ 답변 하나하나가 기계가 읽을 수 있는 팩트가 되고, 모든 필드가 구조화된 데이터 포인트에 대응한다. Location-specific FAQs가 이 마인드셋 전환의 좋은 출발점이다.
2. 표준 포맷으로서의 JSON-LD. 구조화 데이터를 구현하는 웹사이트의 약 70%가 JSON-LD를 쓰는데, 대체로 AI 시스템이 마찰 없이 추출할 수 있는 포맷이라서 그렇다. JSON-LD는 AI 인식에서 microdata 대비 약 60% 더 효과적인 것으로 나타났다. 비즈니스, 위치, 서비스, FAQ, 제품, 이벤트 같은 코어 엔티티는 적절한 schema로 감싸는 게 이득이다. 필드 수준의 디테일은 로컬 비즈니스 AI 인용을 위한 JSON-LD schema 가이드에서 보면 된다.
3. 우선순위로서의 위치 엔티티. 위치 기반 비즈니스한테는 JSON-LD schema 안의 geo 필드가 특히 비중이 크다. 좌표, 서비스 지역, 영업시간, 대중교통 접근성, 동네 컨텍스트가 밋밋한 주소를 기계가 읽을 수 있는 위치 엔티티로 바꿔놓는다. MapAtlas GeoEnrich가 이 필드들을 채우는 검증된 근접성 데이터를 뽑아주고, Geocoding이 원시 주소를 정확한 좌표로 스케일 변환해준다.
4. 플랫폼 간 데이터 일관성. Google Business Profile, 웹사이트, Yelp 같은 소스 사이의 불일치는 AI 시스템 안에서 confidence score를 떨어뜨리는 것으로 보인다. 플랫폼 간 일관된 데이터가 단일 시그널 하나보다 영향력이 큰 경우가 많다. AI 검색을 위한 NAP 일관성에서 메커니즘을 더 자세히 다룬다.
5. 기존 데이터 노출 감사. AI한테 실제로 뭐가 노출되고 있는지 측정하는 게 유용한 출발점인 경우가 많다. 무료 MapAtlas AEO Checker가 리스팅을 29개 구조화 시그널 기준으로 평가하고, 지금 어떤 게 빠져있는지 짚어준다.
더 넓은 변화
이 흐름의 방향성은 일관된 데이터 포인트들로 뒷받침된다. AI 검색 트래픽은 전년 대비 약 721% 성장했다. 2026년까지 검색 인터랙션의 약 30%가 AI를 통해 일어날 것으로 추정된다. Gartner는 사용자가 AI 어시스턴트로 이동하면서 전통적인 검색 엔진 볼륨이 약 25% 감소할 수 있다고 전망했다.
이걸 다 합쳐 보면, 단순히 새로운 SEO 전술이나 기존 schema 관행 조정보다 훨씬 구조적인 얘기가 된다. 사용자랑 비즈니스 사이의 매칭 메커니즘 자체가 더 근본적인 수준에서 바뀌고 있는 것 같다.
키워드 SEO가 특정 쿼리를 따내는 걸 노렸다면, 엔티티 수준 최적화는 더 넓은 주제를 커버하는 쪽이다. 데이터베이스 대 데이터베이스 정렬이라는 부상하는 프레이밍은 사용자의 컨텍스트랑 비즈니스의 구조화 데이터 사이의 전체 대화를 다룬다.
특히 위치 기반 비즈니스라면, 깔끔하고 구조화된 데이터를 노출하고 AI 시스템이 웹을 읽는 방식에 엔티티 정보를 정렬시키는 게 앞으로 몇 년간 발견 전략에서 점점 더 중요한 부분이 될 가능성이 크다.
관련 글:
자주 묻는 질문
'데이터베이스 대 데이터베이스' SEO가 뭔가요?
전통적인 검색의 키워드 대 키워드 매칭에서 AI 검색의 엔티티 대 엔티티 매칭으로 넘어가는 흐름을 말한다. 사용자는 이미 본인 취향, 위치, 컨텍스트가 구조화된 프로파일을 들고 AI 어시스턴트에 접속한다. 웹사이트 쪽도 구조화된 데이터 레이어(좌표, 근처 POI, 영업시간, 동네 컨텍스트 등)가 있어야 AI가 자신있게 그 페이지를 답변에 포함시킨다. 관련성은 키워드가 페이지에 몇 번 나오느냐가 아니라 두 데이터셋이 얼마나 잘 맞느냐로 결정된다.
왜 키워드 중심 SEO의 효과가 떨어지는 건가요?
키워드 SEO는 사용자가 타이핑하는 한 문장에 최적화한다. 근데 AI 어시스턴트는 이제 단일 문장 하나로 돌아가지 않는다. 저장된 메모리, 프로파일 데이터, 공유된 위치, 대화 히스토리를 모아서 컨텍스트 데이터셋을 만든다. '조용한 동네'라는 문구를 반복하는 페이지는 AI한테 거의 아무 정보도 주지 않는다. 반면 walkability 점수, 소음 데이터, 대중교통 접근성, 카페까지의 거리가 구조화된 형태로 있는 페이지는 엔티티 수준에서 사용자 컨텍스트와 매칭되고, 인용될 확률이 훨씬 높다.
AI 인용에 가장 중요한 구조화 데이터 포맷은 뭔가요?
JSON-LD가 사실상 표준이다. 구조화 데이터를 구현하는 사이트의 약 70%가 JSON-LD를 쓰고, AI 인식률에서 microdata보다 약 60% 더 효과적이다. 위치 기반 비즈니스라면 Schema.org의 `LodgingBusiness`, `Hotel`, `Restaurant`, `LocalBusiness` 같은 타입 안의 `geo`, `address`, `amenityFeature`, `nearbyAttraction`, `publicAccess` 필드가 가장 비중이 크다.
우리 사이트 구조화 데이터를 어떻게 감사하면 되나요?
mapatlas.eu/aeo-checker에서 무료로 돌릴 수 있는 MapAtlas AEO Checker를 써봐라. AI 시스템이 인용 결정에 쓰는 29개 구조화 시그널 기준으로 리스팅을 평가하고, 어떤 필드가 빠졌는지, 불완전한지, 다른 퍼블릭 소스랑 일치하지 않는지 보여준다.
위치 기반 비즈니스라면 가장 임팩트 큰 첫 스텝이 뭔가요?
각 위치에 대한 검증된 근접성 인벤토리를 만드는 것. 정확한 근처 POI, 대중교통 거리, 동네 컨텍스트가 AI 어시스턴트가 대화형 쿼리에 비즈니스를 매칭할 때 가장 자주 쓰는 필드고, 동시에 리스팅 페이지에서 가장 자주 빠져있는 필드다. MapAtlas GeoEnrich가 이 데이터를 스케일로 뽑아주니까 바로 Schema.org 마크업이랑 페이지 카피에 꽂아 넣을 수 있다.

