피드로 돌아가기
Dev.toAI/ML
원문 읽기
Reader-Writer 분리 설계로 Token 비용 7배 절감 및 LLM 컨텍스트 유지
Kiro Forgets Everything Every Session. So I've Built It a Memory.
AI 요약
Context
LLM 에이전트가 세션마다 프로젝트 설정을 망각하여 발생하는 재인지 비용(Project Re-discovery Tax) 문제 발생. 기존 Steering 파일의 정적 한계와 에이전트에게 기억 저장을 맡기는 방식의 일관성 부족으로 인한 메모리 관리 실패 분석.
Technical Solution
- Reader와 Writer의 역할을 완전히 분리하여 Context Window 간섭을 제거한 비동기 아키텍처 설계
- Kiro CLI(Reader)는 MCP Server를 통해 최소한의 도구(read, append, search)만 사용하여 세션 시작 시 메모리 로드
- Background Daemon(Writer)이 세션 파일을 주기적으로 모니터링하여 durable facts를 추출하고 Markdown 파일로 업데이트
- File System을 단일 계약 지점(Contract)으로 설정하여 Reader와 Writer 간의 직접 통신 없이 데이터 일관성 유지
- Kiro Backend를 통한 LLM 호출 최적화로 추출 비용을 최소화하는 Lean Consolidation Agent 구성
- Vector DB 대신 Plain Markdown 형식을 채택하여 grep, git 등 기존 CLI 도구의 호환성 및 가독성 확보
실천 포인트
1. LLM 에이전트 설계 시 '기억 관리'를 메인 태스크의 side-quest로 두지 말고 별도 프로세스로 분리했는지 검토
2. 복잡한 Knowledge Graph 도입 전, Plain Text/Markdown 기반의 단순 저장소로 요구사항 충족 가능 여부 확인
3. 고비용 LLM 호출이 반복되는 구간에 전용 Lean Agent 설정을 적용하여 토큰 소모량 최적화