피드로 돌아가기
Crew with Gemma-4 in Colab
Dev.toDev.to
AI/ML

Gemma-4 2B 기반 Zero-Cost Local AI Agent 파이프라인 구축

Crew with Gemma-4 in Colab

Aman Kr Pandey2026년 4월 25일3intermediate

Context

기존 CrewAI 프레임워크의 OpenAI-compatible API 의존성으로 인한 비용 발생 및 데이터 프라이버시 문제 존재. 로컬 환경에서 구동 가능한 Open-weights 모델을 통한 독자적인 Agentic Workflow 구현 필요성 대두.

Technical Solution

  • CrewAI의 BaseLLM을 상속받은 Gemma4CrewAILLM 커스텀 클래스 설계를 통한 인터페이스 통합
  • AutoProcessor 기반의 Tokenization 및 Chat Templating 적용으로 모델 입력 포맷 최적화
  • enable_thinking=False 설정을 통한 불필요한 Thinking Token 제거 및 응답 정제 로직 구현
  • Role, Goal, Backstory를 활용한 System Prompt 최적화로 Hate Speech Detection 전문성 강화
  • Verdict, Detected Content, Severity 등 3단계 구조적 출력 정의를 통한 응답 정확도 및 분석 일관성 확보

1. 외부 API 의존성 제거를 위해 프레임워크의 Base 클래스를 상속받아 커스텀 LLM 어댑터 구현 검토

2. 소규모 모델(2B) 사용 시 출력 구조를 명확히 규정하는 Structured Report 형식을 도입하여 할루시네이션 억제

3. 로컬 GPU 자원 제약 상황에서 모델 파라미터 규모와 추론 속도의 Trade-off를 고려한 모델 선정

원문 읽기