피드로 돌아가기
Snorkel AI x Hugging Face: unlock foundation models for enterprises
Hugging Face BlogHugging Face Blog
AI/ML

Snorkel AI가 Hugging Face Inference Endpoint를 통합하여 150,000개의 오픈소스 파운데이션 모델을 단일 소스에서 제공 가능하게 전환

Snorkel AI x Hugging Face: unlock foundation models for enterprises

2023년 4월 6일6intermediate

Context

엔터프라이즈 사용자들이 파운데이션 모델을 활용하고 싶지만, 각 모델마다 별도의 서비스 인스턴스를 구성해야 해서 비용과 관리 복잡도가 높았다. Snorkel Flow는 초기에 소수의 파운데이션 모델만 지원할 수 있었고, 빠르게 증가하는 다양한 모델 옵션을 제공하기 어려웠다.

Technical Solution

  • Hugging Face Inference Endpoint 서비스 도입: 모델 API를 몇 번의 클릭으로 생성하여 즉시 사용 가능하게 구현
  • Pause and Resume 기능 활용: 클라이언트가 모델이 필요할 때만 API를 활성화하고 사용하지 않을 때는 일시 중지하도록 운영
  • 150,000개의 오픈소스 모델 카탈로그 통합: 단일 소스(Hugging Face Hub)에서 다양한 도메인별 특화 모델(BioBERT, SciBERT 등) 접근 제공
  • Snorkel Flow 개발 플랫폼의 반복적 "검출 및 수정" 워크플로우: 파운데이션 모델의 초기 예측 검사 → 오류 모드 식별 → 프로그래밍 방식 라벨링(휴리스틱/프롬프트)으로 수정 → 미세 조정 후 재평가 사이클
  • 클라우드 및 보안 옵션 설정: 실행할 클라우드 선택 및 필요한 보안 수준을 사용자가 직접 구성 가능하도록 제공

Key Takeaway

엔터프라이즈 AI 개발에서 통합 마켓플레이스 모델과 비용 효율적인 인프라 서비스(pause/resume 기능)를 결합하면, 기업이 기본 모델 학습 비용 없이 다양한 파운데이션 모델을 실험하고 배포할 수 있는 민첩성을 확보할 수 있다.


엔터프라이즈 환경에서 여러 파운데이션 모델을 실험해야 할 때, 클라우드 제공자의 가상 엔드포인트 서비스(Inference Endpoint)의 pause/resume 기능을 활용하면 미사용 기간의 컴퓨팅 비용을 절감하면서도 필요시 즉시 모델을 활성화할 수 있다.

원문 읽기