피드로 돌아가기
Claude Code Context Window Rot: Why Sessions Get Dumber (And How to Fix It)
Dev.toDev.to
AI/ML

Context Rot 해결을 위한 토큰 버짓 기반의 Upstream Context 최적화 설계

Claude Code Context Window Rot: Why Sessions Get Dumber (And How to Fix It)

Amit Ben-Ari2026년 5월 6일21intermediate

Context

LLM의 Transformer 아키텍처 특성상 입력 토큰 증가에 따라 Attention 가중치가 분산되는 Context Rot 현상 발생. 특히 Coding Agent는 누적되는 파일 읽기 및 Tool Call 결과로 인해 신호 대비 잡음비(SNR)가 급격히 저하되는 구조적 한계를 가짐.

Technical Solution

  • Lost-in-the-Middle 현상 억제를 위해 컨텍스트 중앙부의 정보 소실을 방지하는 데이터 배치 전략 수립
  • 단순한 세션 내 정리가 아닌, 세션 시작 전 최적의 컨텍스트를 구성하는 Upstream Filtering 아키텍처 도입
  • Notion, Git, 로컬 파일에서 필요한 정보만 추출하여 토큰 버짓 3,000개 이하로 제한하는 Token Budgeting 적용
  • LLM이 구조적으로 인식하기 용이한 XML 기반의 정형화된 Context Block 구성
  • 관련성 낮은 데이터의 선제적 제거를 통한 Baseline Signal-to-Noise Ratio 극대화
  • 단순 전체 문서 입력 방식에서 핵심 엑셉트(Excerpt) 추출 방식으로의 데이터 로드 전략 변경

- 세션 시작 전 필수 제약 사항과 아키텍처 가이드를 3,000 토큰 이내로 정제하여 입력 - 전체 파일 내용 대신 태스크와 직접 연관된 코드 스니펫과 명세서 일부만 추출하여 로드 - 중요 지침은 모델의 Attention이 집중되는 컨텍스트의 시작과 끝 부분에 배치 - 정기적인 /clear 또는 /compact 명령어를 통해 누적된 잡음(Noise) 제거

원문 읽기