피드로 돌아가기
Akamai surges on big LLM deal as Cloudflare dims
The RegisterThe Register
Infrastructure

Akamai, 18억 달러 규모 Distributed Inference 플랫폼 공급 계약 체결

Akamai surges on big LLM deal as Cloudflare dims

2026년 5월 9일3intermediate

Context

Frontier-model 개발사의 대규모 AI Workload 처리를 위한 고성능 인프라 요구 증가. 기존 Hyperscaler 중심 구조에서 벗어나 저지연성과 고가용성을 보장하는 분산 컴퓨팅 환경으로의 전환 필요성 대두.

Technical Solution

  • 130개국 700개 도시, 4,300개 PoP를 활용한 Distributed Compute 플랫폼 설계
  • 전 세계적 분산 배치를 통한 Low Latency 기반 AI Inference 최적화
  • 복잡한 Distributed System 관리 역량을 통한 대규모 모델 Scale-out 구현
  • 공급망 제약을 고려한 선제적 하드웨어 확보 및 12개월 내 인프라 구축 전략
  • Consumption-based 계약 모델을 통한 인프라 확장과 수익 창출의 동기화

Impact

  • 7년 기간 총 18억 달러 규모의 LLM 공급 계약 체결
  • 직전 분기 다른 모델 개발사와 2억 달러 규모의 추가 계약 달성
  • 공시 후 주가 26% 상승 기록

Key Takeaway

AI Inference 단계에서는 중앙 집중형 데이터센터보다 Edge 단의 분산 처리 능력이 성능 및 신뢰성의 핵심 결정 요인임.


1. AI Workload 설계 시 단일 리전의 처리량보다 전 세계적 Edge 배포를 통한 Latency 최소화 방안 검토

2. 인프라 확장 시 하드웨어 공급망 리스크를 계약 구조(Slippage/Price adjustment)에 반영하여 리스크 헷징

3. Inference 서비스의 비용 효율성을 위해 고정 비용이 아닌 Consumption-based 과금 모델 적용 고려

원문 읽기