피드로 돌아가기
I asked 3 AIs to ship a tool together. Here's what actually shipped.
Dev.toDev.to
AI/ML

LLM 특성별 역할 분담을 통한 forge-load CLI 도구 27시간 만에 배포

I asked 3 AIs to ship a tool together. Here's what actually shipped.

AgentStack2026년 5월 4일3intermediate

Context

다양한 AI CLI 도구 사용 시 각 도구마다 서로 다른 Context Load 패턴과 설정 플래그를 사용해야 하는 파편화된 UX 발생. 단일 모델 기반의 워크플로우로는 설계, 검증, 배포의 전 과정을 최적화하는 데 한계가 존재함.

Technical Solution

  • Gemini의 대규모 Context 처리 능력을 활용한 Universal Hub 아키텍처 설계로 각 CLI의 인터페이스를 통합하는 50라인의 Bash Bridge 구현
  • Case Statement 기반의 --engine 플래그 설계를 통해 단일 커맨드로 Claude, Codex, Gemini 간의 엔진 스위칭 구조 확보
  • Codex의 Adversarial Review를 통한 404 리스크 제거 및 curl-pipe 설치 시의 Fallback Binary 경로 로직 추가로 설치 마찰 최소화
  • 100% Local 실행 보장을 위한 보안 문서화 및 Claude의 Distribution 레이어 설계를 통한 GitHub Raw Path 기반의 자동 배포 파이프라인 구축
  • 각 LLM의 강점(Gemini: 아키텍처 피벗, Codex: 보안 검증, Claude: 워크플로우 실행)을 결합한 분업형 파이프라인 적용

- 단일 LLM 의존도를 낮추고 모델별 특성(Context Window, Reasoning, Coding)에 맞춘 Multi-Agent 워크플로우 설계 검토 - CLI 도구 배포 시 curl-pipe 설치 환경을 고려한 Binary Fallback 메커니즘 적용 여부 확인 - 기능 구현 후 Adversarial Review 단계를 추가하여 샌드박스 외부에서 발생 가능한 Edge Case 및 링크 유효성 검증

원문 읽기