피드로 돌아가기
Hacker NewsHacker News
AI/ML

Reasoning Effort 최적화 및 Prompt Caching 버그 해결을 통한 추론 품질 복구

An update on recent Claude Code quality reports

2026년 4월 23일8intermediate

Context

사용자 경험 개선을 위해 추론 지연 시간(Latency) 감소와 Token 비용 최적화를 시도함. 이 과정에서 Reasoning Effort 수준 변경 및 Prompt Caching 전략 수정이 모델의 지능 저하와 컨텍스트 유지 실패라는 부작용을 야기함.

Technical Solution

  • Long Tail Latency 해결을 위한 기본 Reasoning Effort를 Medium으로 하향 조정했으나 지능 저하 판단에 따라 xhigh/high로 재상향
  • 세션 유휴 시간 1시간 초과 시 Prompt Caching 미스 발생에 대비하여 clear_thinking 헤더를 통한 과거 추론 이력 삭제 로직 도입
  • keep:1 옵션 적용 과정의 버그로 인해 매 턴마다 추론 이력이 삭제되는 현상을 수정하여 세션 연속성 확보
  • Verbosity 감소를 위한 System Prompt 변경이 코딩 품질에 미치는 영향을 Ablation Study로 검증하여 롤백 수행
  • 모델별 특성을 반영한 System Prompt 제어 체계 구축 및 CLAUDE.md 기반의 모델 타겟팅 게이팅 적용

지능과 지연 시간 사이의 Trade-off 결정 시 내부 Eval 지표보다 실제 사용자 피드백을 우선한 롤백 전략 수립 필요. System Prompt의 미세한 변경이 전체 성능에 영향을 주므로 개별 라인 단위의 Ablation Test 수행 필수.

원문 읽기