피드로 돌아가기
Chrome Installed 4 GB of AI on My Machine Without Asking: I Inspected What It's Actually Doing and I Don't Like What I Found
Dev.toDev.to
AI/ML

Chrome 내 Gemini Nano 강제 탑재를 통한 3.7GB 로컬 AI 인프라 구축

Chrome Installed 4 GB of AI on My Machine Without Asking: I Inspected What It's Actually Doing and I Don't Like What I Found

Juan Torchia2026년 5월 5일10intermediate

Context

기존의 LLM 서비스는 외부 API 의존으로 인한 Network Latency와 Privacy 이슈가 상존함. 이를 해결하기 위해 브라우저 레벨에서 Local Inference가 가능한 On-device AI 아키텍처로의 전환이 필요함.

Technical Solution

  • Gemini Nano 모델을 Chrome의 Component Updater 시스템에 통합하여 사용자 개입 없는 Background Download 구현
  • User Profile 내 OptimizationGuide 경로에 .pb(Protocol Buffers) 포맷으로 모델을 저장하여 OS 권한 요청 및 관리자 승인 절차 우회
  • Google Chrome Helper (Renderer) 프로세스를 통한 Pre-warming 전략으로 추론 준비 상태 유지
  • Standard Tool의 분석을 방해하기 위해 자체 Component Format으로 모델 파일 래핑
  • update.googleapis.com과의 Direct Connection을 통한 모델 배포 및 버전 관리 자동화

1. Local Model 배포 시 저장 공간 및 메모리 점유율에 대한 Explicit Consent 프로세스 설계 여부 검토

2. 애플리케이션 삭제 시 User Profile 및 Cache 경로의 잔여 데이터를 완전히 제거하는 Cleanup 로직 구현

3. Background Update 프로세스의 리소스 사용량이 시스템 전체 성능에 미치는 영향 분석 및 Throttling 정책 수립

원문 읽기