피드로 돌아가기
Dev.toAI/ML
원문 읽기
토큰 낭비 방지로 비용 절감, Claude Code 최적화 전략
Optimizing Claude Code token usage: lessons learned
AI 요약
Context
세션 누적으로 인한 컨텍스트 비대화 발생. 불필요한 파일의 반복적 로드와 긴 설정 파일이 비용 상승의 원인. 작업 범위와 무관한 데이터가 입력값에 포함되는 구조적 낭비 존재.
Technical Solution
.claudeignore파일을 생성하여 런타임 JSON 및 바이너리 에셋 등 불필요한 인덱싱 대상 원천 차단- 단일
CLAUDE.md파일을 도메인별로 분리하고 필요 시에만 수동으로 로드하는 선택적 컨텍스트 주입 전략 채택 - 작업 단위 변경 시
/clear명령어로 누적된 세션 데이터를 초기화하여 불필요한 토큰 과금 방지 - 추상적인 질문 대신 파일 경로와 라인 번호를 명시한 정밀 쿼리로 모델의 읽기 범위 최소화
- 단순 반복 작업 및 팩트 체크 시
/model haiku를 활용하여 비용 효율적인 추론 수행 - 프로젝트 루트가 아닌 특정 하위 디렉토리에서 실행하여 자동 탐색 범위(Scope)를 물리적으로 제한
Impact
- 메인
CLAUDE.md파일 분량을 260라인에서 24라인으로 축소 - 모델 교체 시 Sonnet 대비 Haiku의 비용을 약 20배 절감
- 2시간 단일 세션 대비 작업별 세션 분리 시 비용 최대 3배 감소
Key Takeaway
LLM 기반 도구 활용 시 컨텍스트의 양보다 밀도가 생산성과 비용에 직결됨. 명시적인 범위 제한과 세션 관리가 AI 엔지니어링의 핵심 최적화 요소임.
실천 포인트
작업 도메인 변경 시 반드시 /clear를 수행하고, 특정 모듈 작업 시 해당 하위 디렉토리에서 Claude를 실행할 것