피드로 돌아가기
Habana Labs and Hugging Face Partner to Accelerate Transformer Model Training
Hugging Face BlogHugging Face Blog
AI/ML

Habana Labs와 Hugging Face가 SynapseAI를 Optimum 라이브러리와 통합해 Transformer 모델 학습 비용을 40% 단축

Habana Labs and Hugging Face Partner to Accelerate Transformer Model Training

2022년 4월 12일4intermediate

Context

Transformer 모델의 대규모 학습은 막대한 컴퓨팅 파워를 필요로 하여 프로세스가 길고 복잡하며 비용이 높다.

Technical Solution

  • Habana SynapseAI 소프트웨어 스위트를 Hugging Face Optimum 오픈소스 라이브러리와 통합: 몇 줄의 코드로 Habana 프로세서에서 Transformer 학습 가속화
  • Habana Gaudi 프로세서에 10개의 100 Gigabit Ethernet 포트 통합: 1개부터 수천 개의 Gaudi까지 확장성 있는 시스템 구성
  • SynapseAI가 TensorFlow와 PyTorch 프레임워크 모두 지원: NLP 및 컴퓨터 비전 애플리케이션에 최적화
  • Habana Gaudi가 Amazon EC2 DL1 인스턴스 및 Supermicro X12 Gaudi AI Training Server에 탑재: 기존 클라우드 인프라와의 호환성 확보
  • Hugging Face Hardware Partner Program을 통한 지원: 30,000개 이상의 모델 라이브러리와 최적화된 Transformer 도구셋 제공

Impact

  • Habana Gaudi 학습 솔루션의 가격 대비 성능이 비교 가능한 학습 솔루션 대비 40% 낮음

Key Takeaway

전문 하드웨어와 소프트웨어 프레임워크의 긴밀한 통합을 통해 엔지니어가 최소한의 코드 변경으로 훈련 비용 절감 효과를 얻을 수 있으며, 이는 효율성과 개발자 경험 사이의 균형을 이루는 설계 전략의 사례다.


대규모 Transformer 모델을 학습하는 ML 팀에서 Habana Gaudi 프로세서와 Hugging Face Optimum 라이브러리를 함께 도입하면, 기존 PyTorch/TensorFlow 코드에 최소한의 수정만으로 학습 인프라 비용을 40% 절감할 수 있다.

원문 읽기