Hugging Face BlogTransformers 라이브러리가 MoE 모델을 위한 무게 로딩 파이프라인과 분산 실행 모델을 재설계해 21B 파라미터 모델을 3.6B 활성 파라미터로 실행Mixture of Experts (MoEs) in TransformersAI/MLadvanced26 분 소요2026년 2월 26일