피드로 돌아가기
InfoQInfoQ
AI/ML

AWS Bedrock 기반 Cortex 플랫폼을 통한 개발자 온보딩 및 생산성 가속화

Presentation: Accelerating LLM-Driven Developer Productivity at Zoox

Amit Navindgi2026년 5월 14일39intermediate

Context

파편화된 사내 문서와 복잡한 레거시 시스템으로 인해 신규 개발자의 코드 기여까지 1개월 이상의 소요 시간이 발생하는 병목 현상 발생. 퍼블릭 LLM 사용 시 발생하는 기업 보안 제약과 PII 유출 위험으로 인해 내부 데이터 접근이 가능한 전용 AI 인프라 필요성이 대두됨.

Technical Solution

  • AWS Bedrock 게이트웨이를 구축하여 보안 네트워크 내에서 Claude 및 Nova 모델에 접근하는 Cortex 플랫폼 설계
  • 텍스트, 이미지, 비디오 등 다중 모달리티 처리를 위한 통합 Inference API 구현을 통한 데이터 처리 범위 확장
  • 사내 전용 시스템 및 내부 지식 베이스와의 Deep Integration을 통해 범용 모델의 한계를 극복한 도메인 특화 응답 생성
  • 모든 엔지니어가 도구와 통합 기능을 직접 확장할 수 있는 Contributor-friendly 인터페이스 제공으로 개발 병목 제거
  • Kubernetes 기반 오토스케일링 및 로드 밸런서 계층의 Payload Limit 설정을 통한 대규모 이미지 요청 및 DDoS 대응 체계 구축
  • 실시간 처리 불필요 요청을 Batch Inference로 전환하여 컴퓨팅 자원 효율성 최적화

1. 전사 AI 플랫폼 설계 시 보안 네트워크 내 모델 게이트웨이를 통한 데이터 유출 방지 체계 검토

2. 단순 챗봇을 넘어 사내 API 및 문서 시스템과 연동된 Deep Integration 레이어 구축

3. LLM 서비스의 가용성 확보를 위해 L7 계층의 Payload 제한 및 Batch Inference 전환 전략 수립

4. 특정 팀의 병목을 방지하기 위해 타 엔지니어가 기능을 확장할 수 있는 플러그인 구조의 SDK 제공

원문 읽기