피드로 돌아가기
The RegisterAI/ML
원문 읽기
Rebellions이 chiplet 기반 AI 가속기와 air cooling 랙 스케일 플랫폼으로 글로벌 AI 칩 시장에 도전장을 내밀다
South Korea's Rebellions raises $400B to take rack-scale AI platform global
AI 요약
Context
기존 AI 가속기 시장을 지배하는 Nvidia는 H200에서 monolithic die 구조와 TSMC 파운드리 의존, liquid cooling 필요 등 enterprise datacenter 호환성에 한계를 보였다. HBM 메모리 수급 이슈와 TSMC产能 제약도 스타트업의 진입 장벽으로 작용했다.
Technical Solution
- Rebel100 칩 → chiplet 구조로 4개 compute dies를 Samsung에서 제조 및 패키징하여 수율 향상과 TSMC 의존 탈피
- PCIe card 폼팩터 + 600W TDP → 기존 enterprise datacenter 환경에 air cooling 방식으로 배포 가능
- 4개 HBM3e 스택(144GB, 4.8TB/s 대역폭) → Samsung과의 한국 내 공급망 협력을 통한 안정적 수급
- RebelRack → 4개 노드(32 accelerators), quad-400Gbps 네트워킹, 64 petaFLOPS FP8 컴퓨트 구성
- llm-d 기반 disaggregated inference → prefill 연산과 decode 연산을 서로 다른 가속기 세트에서 분리 처리
Impact
64 petaFLOPS FP8 컴퓨트를 4개 노드에서 4.6TB HBM3e 메모리로 제공하며, 8~128노드 스케일의 RebelPod로 datacenter 레벨 확장 가능
Key Takeaway
한국 반도체 생태계(Samsung 파운드리, SK Hynix 메모리, SK Telecom 지원)를 활용하면 글로벌 AI 칩 시장에서 칩셋 제조부터 메모리 수급까지 수직 계열화 우위를 확보할 수 있다
실천 포인트
AI 인프라 구축 시 chiplet 아키텍처와 standard form factor를 채택하면 TSMC 의존 없이도 양산 경쟁력을 확보하면서, 기존 datacenter infrastructure와의 호환성을 유지할 수 있다