피드로 돌아가기
Uber, Claude Code에 2026년 AI 예산을 4개월 만에 모두 태움
GeekNewsGeekNews
AI/ML

Uber, Claude Code에 2026년 AI 예산을 4개월 만에 모두 태움

코드 70% AI 생성 및 연 1% R&D 예산 투입을 통한 개발 속도 가속화

neo2026년 5월 2일13intermediate

Context

대규모 코드베이스와 복잡한 커스텀 프레임워크 환경에서 신규 인원의 온보딩 및 코드 분석 병목 발생. 기존 수동 분석 방식 대비 개발 리드타임 단축을 위해 AI 에이전트 기반의 개발 프로세스 도입.

Technical Solution

  • LLM의 Large Context Window(1M tokens)를 활용한 코드베이스 전역 맥락 파악 및 변경 지점 식별
  • 복잡한 로직 분석을 위해 여러 하위 에이전트를 병렬로 운용하는 Multi-Agent Analysis 패턴 적용
  • AI 생성 코드의 신속한 검토를 위한 LLM 기반 PR(Pull Request) 자동 설명 도구 구축
  • 대규모 데이터 처리 시 발생 가능한 토큰 낭비를 방지하기 위한 CLI 분석 스크립트 및 결과 저장 폴더 구조 설계
  • 일반 프레임워크 대비 커스텀 API 문서 참조 비중을 높여 도메인 특화 정밀도 확보

Impact

  • 엔지니어 95%가 AI 도구를 활용하여 커밋 코드의 70%를 AI가 생성
  • 기존 5일 소요 작업을 1일로 단축하여 개발 속도 약 5배 향상
  • 전체 R&D 지출($3.4B) 대비 AI 관련 지출 비중 약 1% 수준으로 유지

Key Takeaway

AI 에이전트 도입 시 단순 도구 활용을 넘어 Context 관리 전략과 QA/Review 파이프라인의 처리 용량이 전체 생산성을 결정하는 핵심 병목이 됨.


- 무분별한 Context 누적 방지를 위한 맥락 압축 및 요약 체크포인트 설계 여부 확인 - 에이전트 출력 결과가 거대해질 경우(예: 수백 MB ipynb)를 대비한 데이터 필터링 및 CLI 처리 로직 구현 - AI 사용량 기반 KPI 설정이 아닌, 실제 출시 기능 및 품질 지표 중심의 성과 측정 체계 구축 - Enterprise API 전환 시 비용 통제 가능 여부를 확인하기 위한 월간 롤링 상한 설정 검토

원문 읽기