피드로 돌아가기
I Built a Local-First VSCode Code Mentor with Gemma 4 — Your Code Never Leaves Your Machine
Dev.toDev.to
AI/ML

Gemma 4 기반 Local-First 아키텍처를 통한 코드 프라이버시 보장 및 추론 최적화

I Built a Local-First VSCode Code Mentor with Gemma 4 — Your Code Never Leaves Your Machine

Enny Rodríguez2026년 5월 8일6intermediate

Context

기존 AI 코딩 어시스턴트의 Cloud 기반 모델 전송 구조로 인한 소스코드 유출 위험 및 프라이버시 제약 발생. 특히 기업 내부 프로젝트나 보안 민감 프로젝트에서 외부 API 호출이 치명적인 병목이자 리스크로 작용하는 한계점 존재.

Technical Solution

  • VS Code Extension과 Dockerized FastAPI Backend를 분리하여 로컬 인프라 내 독립적 실행 환경 구축
  • Ollama를 기본 Runtime으로 채택하여 외부 네트워크 연결 없이 Local-Only Mode를 기본값으로 강제하는 설계
  • Task 복잡도에 따라 Gemma 4 E4B(Fast)와 31B Dense(Deep) 모델을 동적으로 배분하는 Model Router 구현
  • Prompt Orchestrator 및 Repository Context Builder를 통한 태스크별 구조화된 프롬프트 생성 및 컨텍스트 주입
  • .gemmaignore 설정을 통한 민감 파일 제외 처리 및 Backend URL Validation으로 데이터 외부 유출 경로 원천 차단
  • Mock Provider 인터페이스 제공을 통해 실제 모델 설치 없이도 기능 검증이 가능한 개발 환경 구축

- LLM 도입 시 태스크 복잡도에 따라 모델 크기를 분리하는 Model Routing 전략 검토 - 프라이버시가 중요한 도구 설계 시 Local-Only를 Default로 설정하는 Opt-out 방식 적용 - 확장 프로그램과 백엔드 로직을 분리하여 추론 엔진(Ollama, llama.cpp 등)의 유연한 교체 구조 확보 - 민감 정보 보호를 위한 .gitignore 방식의 파일 필터링 메커니즘 구현

원문 읽기