Hugging Face BlogHugging Face가 ZeRO 메모리 최적화를 Transformers Trainer에 통합해 배치 크기 16에서 50으로 3배 증가 및 학습 시간 30.9초에서 20.9초로 32% 단축Fit More and Train Faster With ZeRO via DeepSpeed and FairScaleAI/MLintermediate25 분 소요2021년 1월 19일