피드로 돌아가기
Hugging Face BlogDevOps
원문 읽기
Dell이 Enterprise Hub에 AI 모델 카탈로그와 응용 프로그램을 추가해 온프레미스 AI 배포 시간을 1시간 이내로 단축
Dell Enterprise Hub is all you need to build AI on premises
AI 요약
Context
기업들이 온프레미스 환경에서 AI 모델을 배포하려면 여러 단계의 최적화와 테스트를 거쳐야 하며, 최신 모델을 지원하기 위해 여러 주가 소요되었다.
Technical Solution
- Meta Llama 4, DeepSeek R1, Google Gemma 3 등 인기 모델을 Dell AI Server Platform에 최적화된 컨테이너 형태로 제공: NVIDIA H200, AMD MI300X, Intel Gaudi 3 가속기 지원
- OpenWebUI와 AnythingLLM을 사전 구성된 Helm 차트로 배포 가능하게 구현: MCP 서버 연동 및 벡터 데이터베이스 RAG 사용 사례 지원
- Dell Pro AI Studio를 통해 Intel 또는 Qualcomm NPU 기반 Dell AI PC에서 온디바이스 모델 실행: OpenAI Whisper, Microsoft Phi, Qwen 2.5 등 지원
- dell-ai 오픈소스 라이브러리 제공: Python SDK와 CLI를 통해 터미널이나 코드에서 직접 접근 가능하도록 pip install dell-ai 설치
- Dell, NVIDIA, AMD, Intel과 직접 협력해 컨테이너 배포 시 하드웨어별 성능 테스트와 벤치마킹 사전 완료
Impact
메타가 Llama 4 모델을 공개한 지 1시간 이내에 Dell Enterprise Hub에서 배포 가능한 형태로 준비됨. 기업 고객이 수주 소요되던 온프레미스 AI 애플리케이션 롤아웃을 1시간 이내에 완료 가능.
Key Takeaway
멀티 공급자 하드웨어(NVIDIA, AMD, Intel) 지원을 위해 각 벤더와 사전 협력하여 사전 최적화된 컨테이너를 제공하면, 엔터프라이즈 배포 시간을 주 단위에서 시간 단위로 단축할 수 있다.
실천 포인트
온프레미스 AI 배포를 필요로 하는 기업의 DevOps 팀은 Dell Enterprise Hub의 Helm 차트와 Docker 컨테이너를 활용하면 복수 가속기(H100, H200, MI300X, Gaudi 3)에서 동일한 모델을 테스트 단계 없이 즉시 배포할 수 있고, dell-ai 라이브러리의 Python SDK를 통해 배포 자동화를 코드화할 수 있다.