피드로 돌아가기
Dev.toAI/ML
원문 읽기
정적 Pipeline을 넘어 LLM 오케스트레이션 기반의 Agentic RAG로 전환
Beyond Basic RAG: The Rise of Agentic Retrieval
AI 요약
Context
Top-k 청크를 단순 전달하는 Naïve RAG의 Context Bloat와 고정된 검색 전략으로 인한 복합 추론 한계 발생. 검색 실패 시 발생하는 Hallucination과 불필요한 토큰 소비로 인한 모델 성능 저하 문제 직면.
Technical Solution
- 정적 파이프라인을 LLM 중심의 Autonomous Agent 구조로 변경하여 검색 전략의 유연성 확보
- LLM을 Orchestrator로 배치하여 검색 필요성 여부와 최적의 데이터 소스(Vector DB, SQL, Web)를 동적으로 결정
- 검색 결과의 충분성 검토 후 쿼리를 스스로 수정하는 Self-correcting Loop 구현
- 상태 기반의 State Management를 통해 Query-Action-Observation의 반복적 최적화 수행
- LangGraph 및 LlamaIndex Agents를 활용한 추론 기반의 동적 지식 도구 활용 체계 설계
실천 포인트
- 현재 RAG 파이프라인이 고정된 Top-k 전략인지 확인 후 복합 쿼리 대응 가능성 검토 - LLM이 검색 도구 선택권을 갖는 Orchestration Layer 도입 고려 - 검색 결과에 대한 모델의 자체 평가 단계(Self-Evaluation) 추가를 통한 Hallucination 억제 - 데이터 성격에 따른 Vector DB와 SQL의 하이브리드 라우팅 로직 설계