피드로 돌아가기
Dev.toAI/ML
원문 읽기
LLM 특성별 역할 분담을 통한 forge-load CLI 도구 27시간 만에 배포
I asked 3 AIs to ship a tool together. Here's what actually shipped.
AI 요약
Context
다양한 AI CLI 도구 사용 시 각 도구마다 서로 다른 Context Load 패턴과 설정 플래그를 사용해야 하는 파편화된 UX 발생. 단일 모델 기반의 워크플로우로는 설계, 검증, 배포의 전 과정을 최적화하는 데 한계가 존재함.
Technical Solution
- Gemini의 대규모 Context 처리 능력을 활용한 Universal Hub 아키텍처 설계로 각 CLI의 인터페이스를 통합하는 50라인의 Bash Bridge 구현
- Case Statement 기반의
--engine플래그 설계를 통해 단일 커맨드로 Claude, Codex, Gemini 간의 엔진 스위칭 구조 확보 - Codex의 Adversarial Review를 통한 404 리스크 제거 및 curl-pipe 설치 시의 Fallback Binary 경로 로직 추가로 설치 마찰 최소화
- 100% Local 실행 보장을 위한 보안 문서화 및 Claude의 Distribution 레이어 설계를 통한 GitHub Raw Path 기반의 자동 배포 파이프라인 구축
- 각 LLM의 강점(Gemini: 아키텍처 피벗, Codex: 보안 검증, Claude: 워크플로우 실행)을 결합한 분업형 파이프라인 적용
실천 포인트
- 단일 LLM 의존도를 낮추고 모델별 특성(Context Window, Reasoning, Coding)에 맞춘 Multi-Agent 워크플로우 설계 검토 - CLI 도구 배포 시 curl-pipe 설치 환경을 고려한 Binary Fallback 메커니즘 적용 여부 확인 - 기능 구현 후 Adversarial Review 단계를 추가하여 샌드박스 외부에서 발생 가능한 Edge Case 및 링크 유효성 검증