피드로 돌아가기
Anthropic reveals $30bn run rate and plans to use 3.5GW of new Google AI chips
The RegisterThe Register
Infrastructure

3.5GW 규모 Google TPU 도입, Anthropic의 초거대 AI 인프라 전략

Anthropic reveals $30bn run rate and plans to use 3.5GW of new Google AI chips

Simon Sharwood2026년 4월 7일2advanced

Context

폭증하는 AI 모델 학습 및 추론 수요로 인한 컴퓨팅 자원 부족 현상. 특정 가속기 의존도를 낮추기 위한 멀티 칩 전략의 필요성 대두.

Technical Solution

  • Broadcom 협력을 통한 Google 차세대 Tensor Processing Units(TPU) 맞춤형 설계 및 공급 체계 구축
  • Anthropic 전용 3.5GW 규모의 TPU 기반 AI 컴퓨팅 용량 확보 전략
  • 2031년까지 지속되는 Google 차세대 AI Rack 네트워크 구성 요소 및 컴포넌트 공급 보장 계약
  • Google TPU, AWS Trainium, Nvidia GPU를 병행 사용하는 하이브리드 가속기 아키텍처 채택
  • 워크로드 특성에 최적화된 칩셋을 동적으로 매칭하여 연산 효율을 극대화하는 리소스 할당 방식

Impact

  • 연간 매출 런레이트(Run-rate) 300억 달러 달성
  • 연간 100만 달러 이상 지출 기업 고객 수 1,000개 초과
  • 차세대 TPU 인프라 전력 용량 3.5GW 확보
  • Broadcom AI 칩 매출 전망치 2027년 기준 1,000억 달러 상회

Key Takeaway

특정 벤더 종속성을 탈피하고 워크로드별 최적의 가속기를 선택하는 멀티-칩 인프라 전략이 초거대 AI 모델 운영의 핵심 경쟁력임.


워크로드의 특성(학습 vs 추론, 모델 크기)에 따라 TPU, Trainium, GPU 등 가속기 포트폴리오를 다변화하여 인프라 유연성을 확보할 것

원문 읽기