피드로 돌아가기
InfoQAI/ML
원문 읽기
Index-free Agentic Search와 Memory Defrag 기반의 지식 주입 시스템 설계
Presentation: What I Learned Building Multi-Agent Systems From Scratch
AI 요약
Context
Rails 기반의 거대 Monolith 구조에서 AI 코드 생성으로 인한 코드 품질 저하와 테스트 부족 문제 발생. 기존의 정적 Indexing 방식은 빈번한 PR 발생 시 인덱스 업데이트 비용이 과다하며, Ruby 언어 특유의 암시적 동작으로 인한 Semantic 관계 파악에 한계 노출.
Technical Solution
- Indexing overhead 제거를 위해 Grep, Read 기반의 Agentic Search 방식으로 전환하여 실시간 코드 분석 성능 확보
- 데이터 소스 추상화를 위한 Adapter Layer를 도입하여 에이전트가 DB 접근을 파일 읽기로 인식하게 하는 가상 지식 주입 구조 설계
- 에이전트의 학습 데이터 파편화를 해결하기 위해 유사 메모리를 병합하고 최적화하는 Defrag 도구 구현
- Keyword Search와 메타데이터 기반의 관련 메모리 추천 시스템을 통해 LLM의 컨텍스트 선택 효율성 극대화
- LLM이 추천된 메모리의 읽기 여부를 스스로 결정하는 Decision Loop를 설계하여 프롬프트 토큰 낭비 방지
실천 포인트
- 정적 인덱싱 비용이 높은 대규모 코드베이스의 경우 Agentic Search 도입 검토 - 다양한 데이터 소스를 LLM에 연결할 때 일관된 인터페이스를 제공하는 Adapter Layer 설계 적용 - 장기 기억(Long-term Memory) 시스템 구축 시 데이터 중복 제거 및 최적화를 위한 Defrag 프로세스 마련 - LLM에게 모든 컨텍스트를 제공하는 대신, 관련 정보의 리스트를 먼저 제공하고 선택하게 하는 2단계 Retrieval 전략 채택