피드로 돌아가기
GeekNewsAI/ML
원문 읽기
Context Mode - AI 코딩 에이전트의 컨텍스트 윈도우를 98% 절약하는 MCP 서버
데이터 샌드박스 격리와 BM25 검색을 통한 컨텍스트 윈도우 98% 절감
AI 요약
Context
MCP 도구 호출 시 발생하는 대량의 원시 데이터가 컨텍스트 윈도우를 빠르게 점유하는 문제 발생. 이로 인해 세션 지속 시간이 30분 내외로 제한되며 LLM의 추론 효율이 저하되는 구조적 한계 노출.
Technical Solution
- 원시 데이터를 샌드박스로 격리하여 LLM에 직접 전달하는 토큰 양을 최소화하는 아키텍처 설계
- SQLite와 FTS5 기반의 이벤트 저장소 구축을 통한 세션 이력의 인덱싱 및 관리
- BM25 알고리즘 기반 검색을 통해 필요한 컨텍스트만 선별적으로 복구하는 효율적 Retrieval 메커니즘 도입
- LLM이 데이터를 직접 읽는 대신 실행 스크립트를 작성하여 결과값만 수신하는 '코드로 생각하기' 방식 적용
- 플랫폼별 Hook(Pre/PostToolUse) 수준에 따른 세션 연속성 등급 차등 지원 체계 마련
- 24시간 TTL 캐시를 적용한 URL 페치 및 인덱싱으로 외부 데이터의 최신성 유지와 중복 요청 방지
실천 포인트
- 대량의 로그나 소스 코드를 LLM에 입력하기 전, 샌드박스 격리 및 요약 결과만 전달하는 구조 검토 - 세션 유지 시간 증대를 위해 SQLite FTS5와 같은 경량 검색 엔진을 이용한 컨텍스트 컴팩션 도입 고려 - LLM의 직접 데이터 분석 대신 실행 가능한 스크립트 생성 및 결과값 반환 패턴 적용