25

Why: LLM의 한계와 RAG의 해결책

Day 1: RAG 아키텍처 개요

학습 목표

LLM의 3가지 한계를 이해한다 RAG가 각 한계를 어떻게 해결하는지 안다 RAG vs Fine-tuning 선택 기준을 안다

LLM의 3대 한계

1. 지식 마감 (Knowledge Cutoff)

에디터 로딩 중...

2. 환각 (Hallucination)

에디터 로딩 중...

LLM은 모르면 "모른다"고 안 한다. 그럴듯하게 지어낸다.

3. 비공개 정보 부재

에디터 로딩 중...

RAG가 해결하는 방법

LLM 한계RAG 해결책
지식 마감실시간 문서 검색 → 최신 정보 반영
환각출처 기반 답변 → 검증 가능
비공개 정보내부 문서 인덱싱 → 회사 맞춤 답변
에디터 로딩 중...

RAG vs Fine-tuning

항목RAGFine-tuning
정보 업데이트문서만 바꾸면 됨 (빠름)재학습 필요 (느림, 비쌈)
출처 제공가능 (검색 결과)불가능
비용낮음 (검색 + API)높음 (GPU, 학습)
환각낮음 (근거 기반)여전히 있음
적합한 경우FAQ, 문서 Q&A말투/스타일 변경

실무 팁: 90%의 경우 RAG로 충분합니다. Fine-tuning은 "말투"를 바꾸고 싶을 때만 고려하세요.


RAG 적용 사례

분야사례효과
고객 지원FAQ 챗봇상담원 50% 감소
법률판례 검색리서치 시간 80% 감소
의료진료 가이드라인진단 정확도 15% 향상
금융리서치 리포트분석 시간 60% 감소
제조매뉴얼 검색고장 수리 시간 40% 감소

핵심: "검색할 문서가 있다" → RAG가 정답

핵심 포인트
  • LLM 3대 한계: 지식 마감, 환각, 비공개 정보 부재
  • RAG는 "검색 후 생성"으로 모든 한계 해결
  • 90% 경우 Fine-tuning보다 RAG가 효율적