Hugging Face BlogNVIDIA가 Megatron-LM 프레임워크로 대규모 언어모델 훈련을 위한 DataLoader 최적화 및 Fused CUDA Kernel 구현으로 GPU 훈련 속도 개선How to train a Language Model with Megatron-LMAI/MLintermediate22 분 소요2022년 9월 7일
Hugging Face BlogHuggingFace가 Megatron-DeepSpeed를 통한 3D 병렬화로 384개 A100 GPU에서 176B 파라미터 모델 176일 만에 3.5개월 완성The Technology Behind BLOOM TrainingAI/MLadvanced62 분 소요2022년 7월 14일