25분
Why: LLM의 한계와 RAG의 해결책
Day 1: RAG 아키텍처 개요
Why: LLM의 한계와 RAG의 해결책
RAG 기초 > Day 1: RAG 아키텍처 개요
학습 목표
LLM의 3가지 한계를 이해한다 RAG가 각 한계를 어떻게 해결하는지 안다 RAG vs Fine-tuning 선택 기준을 안다
LLM의 3대 한계
1. 지식 마감 (Knowledge Cutoff)
에디터 로딩 중...
2. 환각 (Hallucination)
에디터 로딩 중...
LLM은 모르면 "모른다"고 안 한다. 그럴듯하게 지어낸다.
3. 비공개 정보 부재
에디터 로딩 중...
RAG가 해결하는 방법
| LLM 한계 | RAG 해결책 |
|---|---|
| 지식 마감 | 실시간 문서 검색 → 최신 정보 반영 |
| 환각 | 출처 기반 답변 → 검증 가능 |
| 비공개 정보 | 내부 문서 인덱싱 → 회사 맞춤 답변 |
에디터 로딩 중...
RAG vs Fine-tuning
| 항목 | RAG | Fine-tuning |
|---|---|---|
| 정보 업데이트 | 문서만 바꾸면 됨 (빠름) | 재학습 필요 (느림, 비쌈) |
| 출처 제공 | 가능 (검색 결과) | 불가능 |
| 비용 | 낮음 (검색 + API) | 높음 (GPU, 학습) |
| 환각 | 낮음 (근거 기반) | 여전히 있음 |
| 적합한 경우 | FAQ, 문서 Q&A | 말투/스타일 변경 |
실무 팁: 90%의 경우 RAG로 충분합니다. Fine-tuning은 "말투"를 바꾸고 싶을 때만 고려하세요.
RAG 적용 사례
| 분야 | 사례 | 효과 |
|---|---|---|
| 고객 지원 | FAQ 챗봇 | 상담원 50% 감소 |
| 법률 | 판례 검색 | 리서치 시간 80% 감소 |
| 의료 | 진료 가이드라인 | 진단 정확도 15% 향상 |
| 금융 | 리서치 리포트 | 분석 시간 60% 감소 |
| 제조 | 매뉴얼 검색 | 고장 수리 시간 40% 감소 |
핵심: "검색할 문서가 있다" → RAG가 정답
핵심 포인트
- • LLM 3대 한계: 지식 마감, 환각, 비공개 정보 부재
- • RAG는 "검색 후 생성"으로 모든 한계 해결
- • 90% 경우 Fine-tuning보다 RAG가 효율적