AI 답변 4단계 원리 · RAG부터 인용까지
ChatGPT·Perplexity·Gemini는 사용자 질문에 어떻게 답변할까요? 한 줄로 답한다면: "검색하고, 추려내고, 다시 순위 매기고, 답변을 쓴다." 이 4단계 프로세스의 정식 이름이 RAG(Retrieval-Augmented Generation)입니다. 우리 콘텐츠는 이 4단계 중 어느 한 곳에서라도 떨어지면 답변에서 사라집니다. 비개발자도 이해할 수 있게 각 단계를 정리하고, 어디서 떨어지면 어떻게 되는지까지 짚어드립니다.
먼저 RAG가 뭔지부터
RAG는 Retrieval-Augmented Generation의 약자로, "검색으로 보강된 생성"이라는 뜻입니다. 2020년 Meta AI가 처음 발표한 기법인데, 핵심 아이디어는 단순합니다.
AI 모델은 학습 데이터까지의 지식만 가지고 있어서 새 정보를 모릅니다. 또 학습된 지식만으로 답하면 없는 사실을 지어내는 환각(hallucination) 문제가 발생합니다. 이를 해결하려면 답을 만들기 전에 외부 출처에서 관련 자료를 가져와 그 자료를 근거로 답하게 하는 게 자연스럽습니다.
McKinsey 2026 State of AI in Enterprise 보고서 기준 기업 LLM 배포의 67%가 RAG를 사용합니다. 2024년 31%에서 2년 만에 두 배 이상 증가. 환각률은 RAG 적용 시 40~70% 감소한다는 게 일관된 결과입니다.
Perplexity는 모든 답변에 RAG를 적용합니다. ChatGPT는 학습 기반 응답과 RAG 기반 응답을 혼용합니다(검색이 필요하다고 판단되는 질문에만 OAI-SearchBot을 통해 웹을 검색). Google AI Overview도 사실상 RAG 구조이며, Gemini는 자체 학습 데이터와 Google 검색 인덱스를 결합한 변형 RAG를 씁니다.
그럼 RAG가 정확히 어떻게 작동할까요? 4단계로 분해하면 다음과 같습니다.
4단계 — 우리 콘텐츠가 답변에 들어가기까지
예를 들어 사용자가 "광장동 조용한 한식당 추천"이라고 물으면 AI는 이걸 다음처럼 분해합니다: "광진구 광장동 한식당", "조용한 분위기 식당", "광장동 한정식 가족 식사", "광나루역 근처 한식당", "광장동 룸 있는 한식당" 등.
① Sparse Retrieval (전통 검색): 키워드 매칭. "광장동" 단어가 있는 페이지를 찾는 식. BM25 같은 순위 알고리즘 사용.
② Dense Retrieval (벡터 검색): 의미 매칭. 페이지를 1,000개 차원의 숫자 벡터로 변환해 의미적으로 가까운 페이지를 찾음. "조용한"이라고 직접 안 적혀 있어도 "차분한", "대화하기 좋은" 같은 표현이 있으면 매칭.
Perplexity는 이 단계에서 약 10개 페이지를 후보로 가져옵니다. ChatGPT 검색은 더 많이, Google AI Overview는 평균 4.2개 출처 기반으로 답변을 만듭니다.
평가에 쓰이는 주요 신호는 다음과 같습니다.
① 도메인 권위 (E-E-A-T): 기관·언론·전문 도메인을 우대.
② 신선도 (Freshness): 최근 30일 내 업데이트된 콘텐츠는 3.2배 인용. 특히 Perplexity는 신선도 가중치가 가장 높음.
③ 구조 명확성: H1/H2/H3 헤더 계층, JSON-LD, FAQ 구조가 있는 페이지를 우대.
④ 콘텐츠 심도: 20,000자+ 심층 콘텐츠는 4.3배 인용.
⑤ 외부 권위 신호: 다른 신뢰 출처가 인용·언급한 도메인을 우대.
추출은 "청크(chunk)" 단위로 진행됩니다. 페이지 전체가 아니라 200~500자 단위로 잘라서 필요한 부분만 가져옵니다. 본문 첫 30%에 핵심 답변이 명확히 있는 페이지가 가장 많이 추출됩니다 — Princeton 연구에서 AI 인용의 44%가 텍스트 앞 30%에서 발생한다고 밝혔습니다.
마지막으로 답변 끝에 출처 링크가 표시됩니다. ChatGPT는 답변당 평균 10.42개, Google AI Overview는 9.26개, Perplexity는 5.01개 인용 표시. 인용에 들어가야 비로소 사용자가 우리 사이트로 클릭할 수 있습니다.
실제 데이터로 본 4단계 통과율
Perplexity 공개 데이터와 외부 분석을 결합해 실제로 페이지가 4단계를 거치며 어떻게 떨어지는지 시각화하면 다음과 같습니다 (Perplexity 기준 추정).
이 깔때기에서 가장 큰 손실은 2단계(Retrieval) → 3단계(Re-ranking)입니다. 검색에는 잡히지만 권위·구조·신선도 부족으로 답변 후보에 들지 못하는 페이지가 압도적으로 많다는 뜻입니다. 즉 인용되지 않는 콘텐츠 대부분의 문제는 "AI가 못 찾아서"가 아니라 "찾았지만 답변에 쓸 만하지 않아서"입니다.
TalkB의 25문항 4뎁스 측정은 4단계 중 어느 단계에서 떨어지는지를 패턴화해 진단합니다. D0~D3 뎁스별로 0% 인용이라면 Stage 1~2 문제(검색 후보 자체가 안 됨), D3는 인용되는데 D0~D2가 0%라면 Stage 3 문제(권위·구조 부족), D3에서 인용은 되지만 부정확하다면 Stage 4 문제(추출 단계 콘텐츠 명확성 부족)로 분류해 우선 작업 영역을 도출합니다.
Stage별 우리가 할 수 있는 작업
각 단계의 게이트를 통과하기 위한 작업은 다릅니다. 우선순위는 다음과 같습니다.
Stage 1 (Query Parsing) 통과를 위해 — 사용자가 실제로 쓰는 자연어 표현을 콘텐츠에 자연스럽게 포함. "고품격 한식 다이닝"이 아니라 "광진구 광장동 조용한 한정식 전문점, 부모님 모시기 좋은 4인 룸"처럼.
Stage 2 (Retrieval) 통과를 위해 — robots.txt에 AI 크롤러 6+종 명시 허용, llms.txt 작성, 사이트맵 제출, 자체 도메인 또는 티스토리·Medium 같은 AI 크롤 가능 채널 사용. 네이버 블로그에만 의존하지 않기.
Stage 3 (Re-ranking) 통과를 위해 — JSON-LD 스키마 적용 (Article·FAQPage·LocalBusiness·Organization), H1/H2/H3 헤더 계층, 30일 내 업데이트, 권위 출처 인용, 외부 매체 노출.
Stage 4 (Generation) 통과를 위해 — BLUF 형식 (결론 먼저, 근거 뒤), 첫 단락에 핵심 답변, 청크 단위로 자기 완결적인 단락 구성, FAQ 형식 Q&A 활용.
자주 묻는 질문
Q. 우리는 콘텐츠 양이 적은데 4단계 다 통과 가능한가요?
가능합니다. 양보다 각 페이지의 자기완결성이 중요합니다. 한 페이지가 한 질문에 충분히 답하는 구조면 양이 적어도 인용됩니다. 다만 도메인 권위는 콘텐츠 누적에 비례하므로, 최소한의 핵심 페이지(About, FAQ, 주요 서비스 설명) 5~10개는 갖춰져 있어야 합니다.
Q. RAG가 뭔지 모르고도 GEO 작업 효과를 볼 수 있나요?
네. 4단계 원리는 "왜 이 작업이 필요한지" 이해하기 위한 배경이지, 작업 자체는 구체적 체크리스트로 진행됩니다. 다만 원리를 알면 왜 어떤 작업이 효과 있고 어떤 작업이 효과 없는지를 직관적으로 판단할 수 있어 의사결정이 빨라집니다.
Q. ChatGPT는 RAG를 안 쓰고 답변할 때도 있다는데 어떻게 대응하나요?
학습 기반 응답에 들어가려면 학습 데이터에 우리 콘텐츠가 누적되어야 합니다. 이는 단기 작업으로 안 되고, 오랜 기간 동안 인터넷 곳곳에 일관된 정보가 쌓이는 것이 핵심입니다. 그래서 GEO는 단기 SEO보다 누적 게임에 가깝고, 그 누적의 시작점이 4단계 게이트 모두를 통과하는 콘텐츠를 정기적으로 발행하는 것입니다.
우리 사이트는 4단계 중
어디서 떨어지고 있을까?
1:1 무료 상담에서 25문항 4뎁스 테스트로 단계별 통과율을 진단해 드립니다. 어느 단계 작업을 우선해야 할지 30분 통화로 명확해집니다.
단계 진단 신청- Lewis et al. "Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks." Meta AI · NeurIPS 2020.
- McKinsey. "State of AI in Enterprise 2026." 67% RAG 적용률.
- BloggerByteByteGo. "How Perplexity Built an AI Google." 2025.11. Perplexity의 Vespa 기반 RAG 파이프라인 분석.
- ConvertMate. "GEO Benchmark Study 2026." 12,500개 쿼리 분석.
- Aggarwal et al. "GEO: Generative Engine Optimization." Princeton · KDD 2024.
- Yext. "AI Search Citation Analysis." 2025.10. 6.8M 인용 분석. Gemini 52.15% 자체 도메인.
- Pasquale Pillitteri. "Google AI Mode and Zero-Click." 2026.04. Query fan-out 16개 분해.
- Vydera Lab. "RAG Pipeline Analysis." 2026.03. 76.4% 인용 페이지가 30일 내 업데이트.