피드로 돌아가기
Dev.toAI/ML
원문 읽기
Private Data 연동을 통한 LLM Hallucination 해결 및 RAG 아키텍처 설계
Day 1 - RAG
AI 요약
Context
LLM의 학습 데이터 범위를 벗어난 최신 정보나 기업 내부 Private Data 요청 시 발생하는 Hallucination 문제 분석. 모델 재학습을 통한 지식 업데이트의 높은 비용과 데이터 업데이트 주기 제약으로 인한 한계점 식별.
Technical Solution
- 외부 지식 베이스를 LLM과 연결하여 답변 근거를 제공하는 Retrieval Augmented Generation 구조 채택
- 문서를 최적의 크기로 분할하는 Chunking 과정을 통한 데이터 전처리 수행
- 텍스트 데이터를 벡터 공간의 좌표로 변환하여 의미적 유사도를 측정하는 Vectorization 적용
- Vector DB에 저장된 데이터 중 쿼리와 가장 인접한 Magnitude를 가진 데이터를 검색하여 Context로 제공
- Temperature 파라미터 조절을 통한 결과값의 Factual 또는 Imaginative 성향 제어
- 단순 모델 Fine-tuning 대비 데이터 업데이트 유연성을 확보한 External Knowledge Linkage 설계
실천 포인트
- 도메인 특화 작업 수행 시 LLM보다 SLM(Small Language Model) 도입 검토 - Hallucination 방지를 위해 모델 내부 지식이 아닌 외부 Vector DB 기반의 근거 제시 구조 설계 - 답변의 정확도 향상을 위해 Temperature 설정값을 최적화하여 Factual한 응답 유도