피드로 돌아가기
Dev.toAI/ML
원문 읽기
Custom Routing Layer 구축을 통한 AI API 비용 41% 절감
I asked Cursor to rename a function. It sent 8,400 tokens. I checked.
AI 요약
Context
Cursor와 같은 AI Wrapper 서비스의 보수적인 Context 주입 전략으로 인한 Token 낭비 발생. 단순 함수 이름 변경 작업에 8,400 Token이 소모되는 등 과도한 System Prompt와 Indexing Context가 포함된 Routing 구조의 한계 확인.
Technical Solution
- Regex 기반의 Intent Classifier를 통한 요청 유형 분류 및 모델 동적 라우팅 설계
- Trivial Prompt는 Haiku로, Code Prompt는 Sonnet으로, Planning Prompt는 Opus로 분기 처리하는 계층적 구조 채택
- Embedding 기반 분류가 필요한 요청은 저비용 OpenAI 모델로 전송하여 비용 최적화
- 각 모델 호출마다 Pricing Table과 Cost Calculator를 연동하여 실시간 비용 로깅 및 모니터링 구현
- 고정된 Context 주입 대신 작업의 복잡도에 따라 적합한 LLM을 선택하는 전략적 Routing Layer 구축
Impact
- 실제 청구 금액 기준 AI API 비용 41% 감소
- 모델 분포 최적화로 Sonnet 비중 70%에서 25%로 감소 및 Haiku 비중 60%로 확대
- 단가 하락에 따른 AI 도구 활용 빈도 30% 증가
실천 포인트
1. AI Wrapper 서비스의 기본 Context 주입량이 작업 규모 대비 적절한지 Token Counter로 검증
2. 모든 요청을 최상위 모델로 보내지 않고 Intent 분류기에 따른 모델 분기 로직 검토
3. 고정 비용(Subscription)과 변동 비용(API Token)의 Trade-off를 분석하여 자체 Routing Layer 구축 여부 결정