Hugging Face Blog12.5% 전문가 서브셋만으로 풀 모델 성능을 구현한 EMO MoE 아키텍처EMO: Pretraining mixture of experts for emergent modularityAI/MLadvanced22 분 소요5일 전
Dev.tollama.cpp의 310B Sparse MoE 지원 및 Qwen3 기반 Local Agent 생태계 확장llama.cpp supports Sparse MoE, new Qwen3.6 GGUF, & WebWorld for local agentsAI/MLintermediate8 분 소요6일 전