피드로 돌아가기
Your LLM call isn't atomic, it's a conversation paused mid-sentence
Dev.toDev.to
AI/ML

LLM Prompt 디버깅 효율 개선을 위한 Local Proxy 기반 인터랙티브 분석 아키텍처

Your LLM call isn't atomic, it's a conversation paused mid-sentence

abdelali Selouani2026년 4월 21일1intermediate

Context

방대한 System Prompt 내 특정 구문이 LLM의 오작동을 유발하는 원인 파악에 과도한 시간 소요. 기존의 Trial-and-Error 방식은 로그 분석과 프롬프트 수정을 반복하는 비효율적인 구조임.

Technical Solution

  • App과 LLM API 사이에 위치하여 모든 Request/Response를 캡처하는 Local Proxy 서버 설계
  • OpenAI-compatible API 규격 채택을 통한 다양한 LLM Provider(OpenAI, Anthropic, vLLM 등) 호환성 확보
  • 캡처된 컨텍스트를 기반으로 모델에게 직접 오작동 원인을 질문하는 인터랙티브 Debrief 프로세스 구현
  • 프롬프트의 점진적 추가가 아닌, 모델의 자가 분석을 통한 불필요 구문 제거(Subtraction) 전략 적용
  • 모델의 Introspection 능력에 따른 결과 품질 차이를 고려한 Vibe-debugging 워크플로우 구축

- LLM 응답 오류 시 프롬프트 수정 전, 해당 응답의 컨텍스트를 그대로 유지한 채 모델에게 원인 분석을 요청할 것 - 프롬프트 최적화 시 '추가'보다 모델이 지목한 '제거' 중심의 접근 방식을 검토할 것 - 디버깅 효율을 위해 API 호출 경로 상에 요청/응답을 저장하고 재전송할 수 있는 Proxy 계층 도입을 고려할 것

원문 읽기