피드로 돌아가기
Accelerate a World of LLMs on Hugging Face with NVIDIA NIM
Hugging Face BlogHugging Face Blog
AI/ML

NVIDIA NIM이 단일 Docker 컨테이너로 100,000개 이상의 Hugging Face LLM을 자동 최적화 배포하여 추론 프레임워크 선택 및 수동 튜닝 제거

Accelerate a World of LLMs on Hugging Face with NVIDIA NIM

2025년 7월 21일8intermediate

Context

AI 빌더들이 다양한 LLM 아키텍처와 전문화된 변형 모델을 사용하려 하지만, 서로 다른 추론 소프트웨어 프레임워크를 관리하고 최적화하는 작업이 테스트 및 배포 파이프라인의 병목이 되고 있다. 각 LLM과 서빙 요구사항마다 최적의 성능을 달성하기 위해 프레임워크 선택과 설정을 수동으로 진행해야 하는 오버헤드가 존재한다.

Technical Solution

  • 단일 NIM 마이크로서비스 컨테이너: NVIDIA TensorRT-LLM, vLLM, SGLang을 모두 지원하는 하나의 Docker 이미지로 LLM 배포
  • 자동 모델 분석 및 백엔드 선택: 모델 포맷(Hugging Face, GGUF, TensorRT-LLM), 아키텍처(Llama, Mistral), 양자화 포맷(FP16, FP8, INT4)을 자동 감지해 최적의 추론 백엔드 선택
  • 다양한 모델 포맷 지원: Hugging Face Transformers 체크포인트, GGUF 양자화 모델, TensorRT-LLM 체크포인트, 사전 구축된 TensorRT-LLM 엔진 직접 배포
  • 자동 성능 설정 적용: 선택된 모델과 백엔드에 사전 구성된 설정을 자동으로 적용하여 추론 서버 시작, 수동 튜닝 불필요
  • 환경 변수 기반 커스터마이제이션: NIM_TENSOR_PARALLEL_SIZE(다중 GPU 배포), NIM_MAX_MODEL_LEN(컨텍스트 길이) 등으로 고급 사용자 맞춤 가능

Key Takeaway

100,000개 이상의 LLM을 단일 컨테이너 이미지로 지원함으로써 프레임워크 호환성을 보장하면서 개발자는 모델 선택에만 집중할 수 있다. 자동 모델 분석과 백엔드 선택 로직을 통해 배포 검증 시간과 수동 설정의 복잡도를 제거하는 것이 핵심 설계 원칙이다.


Hugging Face의 다양한 LLM을 NVIDIA GPU 인프라에서 운영하는 팀은 NIM의 자동 모델 포맷 감지와 백엔드 선택 메커니즘을 활용해 배포 자동화 스크립트의 조건문 복잡도를 제거하고, list-model-profiles 명령으로 호환 프로필을 사전 검증한 후 NIM_MODEL_PROFILE 환경 변수로 특정 백엔드를 고정할 수 있다.

원문 읽기