인사이트

ChatGPT, Perplexity, Gemini 는 어떻게 출처를 고르는가

ChatGPT, Perplexity, Gemini 는 서로 다른 방식으로 검색하고 인용합니다. 각 엔진의 출처 선정 메커니즘과 2026 년 콘텐츠 전략에 미치는 영향을 정리했습니다.

Mark KimMark Kim21 min read

ChatGPT, Perplexity, Gemini 는 같은 질문에 서로 다른 출처 목록으로 답합니다. 각 엔진은 다른 검색 파이프라인을 사용하고, 신선도와 권위를 다르게 가중하며, 인용을 다른 표면에 노출합니다. 콘텐츠 팀에게 이는 Perplexity 인용을 얻은 페이지가 Gemini 에서는 보이지 않을 수 있다는 뜻입니다. 이 글은 각 엔진의 검색 메커니즘을 분해하고, 인용률을 움직이는 포맷 선택으로 옮깁니다.

검색 문제는 랭킹 문제와 다릅니다

고전 SEO 가 풀던 문제는 하나였습니다. 쿼리를 받으면 10 개의 랭킹 링크를 돌려주는 것. AI 답변 엔진은 더 어려운 문제를 풉니다. 쿼리를 받으면 적절한 패시지를 검색한 뒤, 그 패시지를 인용하면서 답변을 합성합니다. 검색 (retrieval) 은 생성 (generation) 의 상류 단계이고, 랭킹과 다른 규칙을 따릅니다.

이 차이가 중요한 이유는 RAG (검색 증강 생성, Retrieval-Augmented Generation, 모든 주요 답변 엔진이 쓰는 아키텍처) 가 패시지를 재작성된 쿼리와의 의미 유사도로 채점하기 때문입니다. 고전 검색이 최적화한 키워드-백링크 그래프가 아닙니다. Stanford 의 HELM Lite 벤치마크 는 이를 직접 기록합니다. 검색 모델은 평균 80 ~ 200 토큰 구간을 추출하고, top-k 검색 풀 밖의 패시지는 생성 단계에 도달하지 못합니다.

실무적 결과는 단순합니다. Google 1 위 페이지여도 상위 패시지가 재작성된 쿼리와 매치되지 않으면 ChatGPT 는 그 페이지를 아예 검색하지 않을 수 있습니다. 2026 년 답변 레이어에 도달할지 결정하는 세 가지가 있고, 엔진마다 다릅니다.

6.2Perplexity 답변당 평균 인용 수 (1,000 프롬프트 샘플 기준)Perplexity 공개 샘플 감사, 2026 년 1 분기

ChatGPT 는 어떻게 출처를 고르는가

ChatGPT search 는 Bing 백엔드 검색 계층 위에 OpenAI 자체 재랭킹 (re-ranking) 을 얹은 구조입니다. 유저 프롬프트가 최신 정보를 요구하면 모델이 browse 호출을 트리거하고, Bing 웹 인덱스에서 약 10 ~ 30 개 URL 후보 풀을 가져온 뒤, 내부 스코어러로 재랭킹하여 상위 패시지를 생성 단계에 전달합니다. OpenAI 는 GPT-4 시스템 카드 와 이후 search-mode 문서에서 이 아키텍처를 설명합니다.

ChatGPT 출처 선정에서 세 가지 신호가 지배적입니다.

  1. Bing 크롤 커버리지. Bingbot 이 페이지를 크롤하지 않았거나 우선순위를 낮췄다면 ChatGPT 는 검색할 수 없습니다. Bing 웹마스터 인증과 사이트맵 제출이 있는 사이트가 측정 가능하게 더 자주 노출됩니다. Microsoft 의 Bing Webmaster 블로그 는 Bing 인덱스가 Copilot 과 ChatGPT search 양쪽에 데이터를 공급한다고 확인합니다.
  2. 권위 정황 증거. OpenAI 시스템 카드는 권위 있는 출처에서 링크된 문서를 선호한다고 명시적으로 논의합니다. 백링크는 더 이상 랭킹 위치를 정하지 않지만, 검색 풀 진입을 통제하는 역할은 합니다.
  3. 엔티티 우선 패시지. ChatGPT 재랭커는 엔티티와 주장이 같은 문장 안에 있는 패시지에 보상합니다. 맥락 문단이 길게 따라붙는 구조는 청커에 의해 어색하게 잘리고 top-k 풀에서 빠집니다.

ChatGPT 는 인용을 인라인 각주 표시와 답변 하단 출처 목록으로 보여줍니다. Plus 유저는 기본으로 출처 속성이 보이고, 무료 유저는 2026 Q1 당사 샘플 기준 search-mode 답변의 약 40% 에서 인용을 봅니다.

Perplexity 는 어떻게 출처를 고르는가

Perplexity 는 인용 우선 제품입니다. 모든 답변은 본문 위에 번호 매김된 출처 목록과 함께 나오고, 회사는 그 표면을 중심으로 검색 파이프라인을 만들었습니다. 2024 년 Lex Fridman 팟캐스트의 CEO Aravind Srinivas 대담 은 엔진의 검색 우선 아키텍처를 설명합니다. Perplexity 는 유저 쿼리를 검색용 형태로 재작성하고, 자체 웹 인덱스에 Reddit, Wikipedia, 학술 출처를 포함한 파트너 피드를 더한 풀에서 후보를 검색하며, 신선도와 출처 다양성을 기준으로 재랭킹한 뒤 생성합니다.

Perplexity 출처 선정에서 세 가지 신호가 지배적입니다.

  1. 신선도 가중. Perplexity 인덱스는 뉴스 태그 도메인을 몇 시간 단위로 재수집하고, 재랭커는 시간 민감 쿼리에서 최근 30 일 이내 발행 또는 업데이트된 문서를 명시적으로 부스트합니다. 현재 주제에 대한 6 개월 된 페이지는 2 주 된 요약에 밀립니다. 오래된 페이지가 더 권위 있어도 마찬가지입니다.
  2. 출처 다양성. 재랭커는 유사 중복 인용에 페널티를 줍니다. 같은 도메인에서 출처 6 개가 한 답변에 등장하는 경우는 드물고, 엔진은 퍼블리셔 분산을 선호합니다. 이 점이 중견 사이트에 실질적 인용 기회를 줍니다.
  3. 포커스 모드. Perplexity 는 포커스 모드 (Web, Academic, Reddit, YouTube, Writing) 를 노출하고, 각 모드는 자체 검색 풀을 가집니다. Academic 모드는 Semantic Scholar 에서, Reddit 모드는 Reddit API 에서 가져옵니다. 인용 최적화는 독자가 어떤 포커스 모드를 쓰는지 생각하는 것에서 시작됩니다.

Perplexity 는 우리가 2026 년 1 분기 내부 감사에서 1,000 개 상용 프롬프트를 대상으로 측정한 결과 답변당 평균 6.2 개 인용을 보였고, 중앙값은 5 개, 롱테일은 14 개까지 갔습니다. 세 엔진 중 가장 높은 인용 밀도이고, Perplexity 가 초기 인용을 가장 얻기 쉬운 엔진인 구조적 이유입니다.

Gemini 와 Google AI Overview 는 어떻게 출처를 고르는가

Gemini 와 Google AI Overview 는 고전 Google Search 와 검색 인프라를 공유합니다. 2010 년부터 운영되어 온 크롤, 인덱스, 랭킹 파이프라인 위에 한 가지 레이어가 추가됐습니다. SGE (Search Generative Experience, AI Overview 블록을 만드는 시스템) 입니다. Google 은 I/O 2024 발표 와 후속 Search Central 글에서 아키텍처를 설명했습니다.

Gemini 출처 선정에서 세 가지 신호가 지배적입니다.

  1. 고전 Google 랭킹이 prior 로 작동. SGE 는 Search 가 쓰는 같은 패시지 인덱스에서 검색하고, 재작성된 쿼리에서 강한 오가닉 랭킹을 가진 페이지가 후보 풀에 먼저 들어갑니다. 오가닉 상위 50 위 밖의 페이지는 AI Overview 에 거의 등장하지 않는다고 Search Engine Land 의 2024 년 11 월 롤아웃 보도 는 보고합니다.
  2. Knowledge Graph 정황 증거. Google Knowledge Graph 의 엔티티 매칭은 다른 두 엔진보다 Gemini 에서 더 강한 신호입니다. Knowledge Graph 엔티티 (위키백과 연결 인물, 브랜드, 제품) 와 매치되는 문서는 재랭킹에서 위로 밀어 올려집니다.
  3. 구조화 데이터. Article, FAQPage, HowTo, Product 스키마가 SGE 재랭커에 들어갑니다. Google 의 구조화 데이터 문서 가 표준 참조이고, 고전 리치 리절트와 AI Overview 양쪽을 다룹니다.

Gemini 는 인용을 답변 아래 작은 칩 형태 출처 카드로 노출하고, AI Overview 는 고전 결과 목록 위에 3 ~ 5 개 큰 출처 카드를 보여줍니다. 인용 가시성은 세 엔진 중 가장 낮습니다. 당사의 2026 Q1 클릭 추적 샘플에서 AI Overview 출처 카드 클릭률은 약 1.2%, Perplexity 인용 클릭률은 약 8.5% 로 측정됐습니다.

한 화면에 비교

다음 표는 운영상 차이를 한 화면에 담습니다. 콘텐츠 팀 온보딩 때 공유하는 치트시트입니다.

엔진검색 메커니즘신선도 가중인용 가시성도메인 권위 신호쿼리 재작성
ChatGPT searchBing 인덱스 + OpenAI 재랭크중간인라인 각주 + 출처 목록백링크 그래프 (Bing 상속)가벼운 재작성
Perplexity자체 인덱스 + 파트너 피드 + RAG 재랭크높음 (뉴스 태그 몇 시간마다 재수집)답변 위 번호 목록단일 권위보다 출처 다양성적극적 재작성
Gemini / AI OverviewGoogle Search 패시지 인덱스 + SGE중-하 (신선보다 권위 선호)출처 카드 (약 1.2% CTR, 당사 패널)고전 Google 랭킹 + Knowledge Graph중간 재작성

패턴은 일관됩니다. Perplexity 는 새로 나오고 집중된 퍼블리셔에 보상합니다. ChatGPT 는 Bing 인덱스된 권위에 보상합니다. Gemini 는 고전 Google 랭킹과 Knowledge Graph 엔티티 매치에 보상합니다.

세 엔진에 공통된 패턴

차이에도 불구하고 네 가지 포맷 선택이 세 엔진의 인용률을 동시에 끌어올립니다. 세 가지 최적화 트랙을 따로 유지하고 싶지 않은 콘텐츠 팀에 가장 저렴한 승리입니다.

  1. 엔티티와 주장을 한 문장에 둡니다. 모든 리트리버는 엔티티-주장 근접도로 재랭킹합니다. 30 단어 안에 브랜드를 명명하고 주장을 진술하는 문장은 모든 엔진의 청커를 통과해 살아남습니다.
  2. FAQ 스키마와 <Faq> 블록을 추가합니다. FAQPage 스키마는 Google 구조화 표면에 직접 데이터를 공급하고, 질문-답변 포맷은 RAG 시스템이 콘텐츠를 청크하는 방식과 일치합니다. FAQ 태그 페이지는 내부 패널에서 세 엔진 모두에서 측정 가능하게 높은 인용률을 보입니다.
  3. 명확한 업데이트 날짜를 노출합니다. Perplexity 는 신선한 페이지를 부스트하고, Gemini SGE 는 시간 민감 쿼리에서 노후도를 확인하며, ChatGPT 재랭커는 뉴스 주제에서 최신성을 가중합니다. ISO 8601 datestamp 가 있는 <time> 요소는 세 엔진 모두에 신선도 신호를 보냅니다.
  4. 문단은 100 ~ 300 단어, 한 주장씩. 긴 문단은 모든 리트리버에서 어색하게 잘립니다. 짧고 주장 중심인 문단은 청킹을 통과해 검색 파이프라인을 깔끔하게 흐릅니다.

콘텐츠 전략에 미치는 영향

엔진 단위 분석에서 세 가지 운영적 변화가 도출됩니다.

첫째, 단일 엔진 최적화를 그만둡니다. Google AI Overview 만 최적화하면 Perplexity 와 ChatGPT 인용을 놓칩니다. 앞 섹션의 네 가지 패턴이 세 엔진 모두를 끌어올리고, 엔진별 미세 조정 (ChatGPT 용 Bing 웹마스터 인증, Perplexity 용 포커스 모드 인지, Gemini 용 구조화 데이터) 은 그 위에 쌓는 것입니다.

둘째, 랭킹이 아니라 인용률을 측정합니다. 인용률은 고정 프롬프트 셋에 대해 답변이 브랜드를 인용한 비율입니다. 독자가 실제로 묻는 50 ~ 200 개 프롬프트를 선정하고, 주 단위로 세 엔진에 돌리고, 도메인을 언급하거나 인용한 답변 비율을 추적합니다. AEO vs SEO 프레임워크 글 에서 측정 프로토콜을 자세히 다룹니다.

셋째, Perplexity 를 선행 지표로 봅니다. Perplexity 의 인용 밀도 (평균 6.2, 중앙값 5) 와 적극적 재랭킹이 포맷 변화를 다른 두 엔진보다 2 ~ 4 주 일찍 표면화시킵니다. 재작성이 일주일 안에 Perplexity 인용을 올리면, 거의 항상 한 달 안에 ChatGPT 와 Gemini 인용도 따라옵니다.

전선은 검색 비중이 줄어드는 쪽이 아니라 늘어나는 쪽으로 움직입니다. Anthropic, Mistral, 그리고 수직 답변 엔진 군 (코드용 Phind, 연구용 Consensus, 웹용 You.com) 모두 같은 일반 논리를 따르는 RAG 파이프라인을 운영합니다. 위의 네 가지 공통 패턴이 표면을 가로질러 작동하는 포맷 보험입니다. 나머지 GEO 플레이북은 인용되는 5 가지 스키마 패턴 에서 확인할 수 있습니다.

Cite as

다음 글을 이메일로 받기

Answer Engine Optimization 에 대한 주 1편 앵커 콘텐츠. 채우기 없음.

Related