Hugging Face BlogHugging Face 팀이 10억 개의 문장 쌍으로 Sentence Transformer 모델을 학습하면서 대조 학습(Contrastive Learning)과 배치 최적화를 통해 여러 일반 목적 문장 임베딩 모델에서 SOTA(State-of-the-Art) 달성Train a Sentence Embedding Model with 1B Training PairsAI/MLintermediate17 분 소요2021년 10월 25일