-
검색하는 AI, RAG로 보는 생성형 AI의 미래🔍 AI 탐험하기 2025. 4. 10. 09:07반응형
검색해서 대답하는 RAG RAG(Retrieval-Augmented Generation)은 언어 모델이 외부 지식을 검색해 응답을 생성하는 구조입니다. 이 글에서는 페이스북 AI 논문을 바탕으로, LLM의 한계를 넘는 새로운 AI 접근법을 설명합니다.
🔍 Retrieval-Augmented Generation(RAG)이란? 지식 집약형 NLP의 새로운 접근법
1. 서론 | 지식을 외우는 AI에서, 찾아보는 AI로
요즘 ChatGPT 같은 대형 언어 모델(LLM)은 마치 모든 지식을 다 알고 있는 것처럼 보입니다. 하지만 사실 이 모델들은 훈련 데이터에 기반한 "암기형 지식"을 사용합니다.
그러다 보니 새로운 정보를 반영하기 어렵고, 때로는 사실과 다른 내용을 "그럴듯하게" 만들어내는 현상(이른바 hallucination)이 나타납니다.
이런 문제를 해결하기 위해 제안된 것이 바로 RAG (Retrieval-Augmented Generation) 모델입니다. 이 글에서는 페이스북 AI 연구팀(Facebook AI Research)이 발표한 논문 《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》를 바탕으로, RAG 모델이 왜 주목받고 있는지, 어떻게 작동하는지, 그리고 어떤 성과를 냈는지를 쉽게 풀어보겠습니다.
2. 본론 | RAG 모델의 핵심 개념과 구조
📌 핵심 용어 정리
용어 설명 Parametric Memory 모델의 내부 파라미터에 저장된 지식 (ex. GPT, BART 등) Non-Parametric Memory 외부에서 검색 가능한 지식 저장소 (ex. Wikipedia, 검색 인덱스) Retriever 질문에 맞는 문서를 찾아주는 검색기 Generator 찾은 문서를 바탕으로 답변을 생성하는 생성기 RAG-Sequence / RAG-Token 한 문서로 전체를 생성(RAG-Sequence) vs. 단어마다 다른 문서 활용(RAG-Token) 🔧 RAG 모델 구조 (간단한 흐름)
- 사용자가 질문을 입력하면
- Retriever가 Wikipedia 같은 외부 지식 저장소에서 관련 문서를 검색
- Generator(BART 기반)가 그 문서를 바탕으로 문장을 생성
- 문장 생성 시, 여러 문서를 참고하거나 하나의 문서를 선택적으로 활용함
📚 기존 모델은 내부 지식만 사용했다면, RAG는 "AI도 검색하고 대답한다"는 점에서 인간의 사고방식에 더 가깝다고 볼 수 있어요.
🧪 실험 결과 요약
- 오픈 도메인 QA 성능: Natural Questions, TriviaQA 등 여러 데이터셋에서 기존 모델 대비 높은 정확도 달성
- 제퍼디 질문 생성: BART보다 더 정확하고 구체적인 질문을 생성함
- 팩트 검증(FEVER): 사전 학습 없이도 거의 최상위 성능 도달
- 지식 업데이트 용이: 단순히 인덱스만 바꿔도 모델 지식이 바뀜 (예: 대통령이 바뀌었을 때)
3. 결론 | 왜 RAG는 지금 중요한가?
이 논문은 단순히 성능이 좋은 모델을 제시한 것을 넘어, 언어 모델의 한계를 극복하는 새로운 방향을 보여줍니다.
- 더 사실 기반적인 응답
- 더 유연한 지식 업데이트
- 더 해석 가능하고 통제 가능한 구조
🔗 관련 글 추천
📄 본 글은 다음 논문을 바탕으로 작성되었습니다:
Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks (Patrick Lewis et al., NeurIPS 2020)반응형