피드로 돌아가기
Hugging Face and AWS partner to make AI more accessible
Hugging Face BlogHugging Face Blog
AI/ML

Hugging Face와 AWS가 전략적 파트너십으로 Amazon SageMaker, AWS Trainium, AWS Inferentia를 통해 개발자의 ML 모델 학습·배포 접근성 향상

Hugging Face and AWS partner to make AI more accessible

2023년 2월 21일5intermediate

Context

최신 Transformer 및 Diffuser 기반의 생성형 AI 모델 대부분이 대형 기술 기업에만 공개되면서, 일반 개발자와 대형 회사 간 머신러닝 역량 격차가 확대되고 있다. 모델 학습 및 배포에 필요한 비용과 전문 지식이 대부분의 개발자에게 진입장벽으로 작용하고 있다.

Technical Solution

  • Hugging Face 커뮤니티 개발자가 AWS를 선호 클라우드 제공자로 사용하여 Amazon SageMaker, AWS Trainium, AWS Inferentia에 접근
  • Amazon SageMaker와 Amazon EC2에서 Hugging Face 모델을 몇 번의 클릭만으로 파인튜닝 및 배포 가능하게 구현
  • Hugging Face가 Amazon SageMaker를 활용하여 최신 연구 기반의 차세대 AI 모델을 오픈소스로 구축
  • AWS 설계 칩(Trainium, Inferentia)을 활용한 모델 성능 최적화로 비용 절감
  • Hugging Face Hub의 100,000개 이상의 무료 ML 모델이 AWS에서 실행될 수 있도록 통합

Key Takeaway

AI 접근성 민주화를 위해서는 클라우드 플랫폼과 모델 저장소의 긴밀한 통합이 필수적이며, 목적 특화 하드웨어(AWS Trainium, Inferentia)와 매니지드 ML 서비스(SageMaker)의 조합이 개발자 진입장벽을 크게 낮춘다.


ML 모델을 배포하는 조직에서 AWS SageMaker와 Hugging Face Hub를 연동하면, 모델 파인튜닝과 배포에 필요한 인프라 설정 시간을 단축하고 AWS Trainium/Inferentia 같은 가속기를 활용해 추론 비용을 절감할 수 있다.

원문 읽기