피드로 돌아가기
The RegisterInfrastructure
원문 읽기
Akamai, 18억 달러 규모 Distributed Inference 플랫폼 공급 계약 체결
Akamai surges on big LLM deal as Cloudflare dims
AI 요약
Context
Frontier-model 개발사의 대규모 AI Workload 처리를 위한 고성능 인프라 요구 증가. 기존 Hyperscaler 중심 구조에서 벗어나 저지연성과 고가용성을 보장하는 분산 컴퓨팅 환경으로의 전환 필요성 대두.
Technical Solution
- 130개국 700개 도시, 4,300개 PoP를 활용한 Distributed Compute 플랫폼 설계
- 전 세계적 분산 배치를 통한 Low Latency 기반 AI Inference 최적화
- 복잡한 Distributed System 관리 역량을 통한 대규모 모델 Scale-out 구현
- 공급망 제약을 고려한 선제적 하드웨어 확보 및 12개월 내 인프라 구축 전략
- Consumption-based 계약 모델을 통한 인프라 확장과 수익 창출의 동기화
Impact
- 7년 기간 총 18억 달러 규모의 LLM 공급 계약 체결
- 직전 분기 다른 모델 개발사와 2억 달러 규모의 추가 계약 달성
- 공시 후 주가 26% 상승 기록
Key Takeaway
AI Inference 단계에서는 중앙 집중형 데이터센터보다 Edge 단의 분산 처리 능력이 성능 및 신뢰성의 핵심 결정 요인임.
실천 포인트
1. AI Workload 설계 시 단일 리전의 처리량보다 전 세계적 Edge 배포를 통한 Latency 최소화 방안 검토
2. 인프라 확장 시 하드웨어 공급망 리스크를 계약 구조(Slippage/Price adjustment)에 반영하여 리스크 헷징
3. Inference 서비스의 비용 효율성을 위해 고정 비용이 아닌 Consumption-based 과금 모델 적용 고려