피드로 돌아가기
Dev.toAI/ML
원문 읽기
LLM 토큰 최적화를 위한 Markdown 로직의 Shell Script 전환 및 DRY 전략 재정의
I thought I was DRY-ing. I may have been double-paying.
AI 요약
Context
LLM 기반 워크플로우에서 공통 로직을 분리한 Foundation Skill 구조가 토큰 비용을 증가시킨다고 판단하여 각 Skill에 로직을 Inline 하는 리팩토링 수행. 하지만 잘못된 가설로 인해 중복 로직이 산재하며 토큰 소모가 가중되고 로직 정합성이 깨지는 Drift 현상 발생.
Technical Solution
- 외부 독립 Claude 세션을 통한 Cold Audit 수행으로 작성자의 인지 편향(Confirmation Bias) 제거
- Deterministic Logic의 경우 Markdown 기반 가이드라인 대신 Shell Script 실행 결과(stdout)를 읽는 구조로 전환
- 단순 텍스트 기반의 DRY(Don't Repeat Yourself) 원칙을 넘어 LLM의 추론 비용(Reasoning Cost)을 최소화하는 설계 채택
- 불필요한 Skill Description 길이를 최적화하여 세션 초기 로드 시 발생하는 Token Surtax 감소
- 중복 정의된 JSON Schema 및 출력 포맷 규칙을 단일 지점으로 통합하여 관리 포인트 일원화
실천 포인트
1. LLM 프롬프트 내에 반복되는 규칙이나 결정론적 계산 로직이 존재하는가?
2. 해당 로직을 Bash/Python 스크립트로 대체하여 stdout 한 줄로 결과값을 전달할 수 있는가?
3. 리팩토링 전후의 토큰 소모량을 측정할 수 있는 독립적인 감사(Audit) 프로세스를 갖추었는가?
4. 단순 중복 제거(DRY)가 오히려 LLM의 컨텍스트 참조 비용을 높이고 있지는 않은가?