피드로 돌아가기
Timm ❤️ Transformers: Use any timm model with transformers
Hugging Face BlogHugging Face Blog
Backend

Hugging Face가 TimmWrapper를 개발해 PyTorch Image Models의 32K개 컴퓨터 비전 모델을 Transformers 에코시스템과 통합

Timm ❤️ Transformers: Use any timm model with transformers

2025년 1월 16일9intermediate

Context

Hugging Face Transformers는 여러 비전 모델을 지원하지만, PyTorch Image Models(timm) 라이브러리는 모바일 친화적인 MobileNetV4 같은 200개 이상의 추가 아키텍처를 제공한다. 기존에는 timm 모델을 Transformers의 Pipeline API, Auto Classes, Trainer API 등과 함께 사용할 수 없었다.

Technical Solution

  • TimmWrapper 도입: timm 모델을 Transformers 호환 래퍼로 변환하여 AutoModelForImageClassification, AutoImageProcessor와 함께 작동
  • Pipeline API 지원: timm 모델을 high-level Transformers Pipeline으로 직접 로드하여 추론 수행 (MobileNetV4 예시)
  • 양자화 통합: BitsAndBytesConfig를 사용해 약 5줄의 코드로 timm 모델 양자화
  • Trainer API 호환: LoRA 같은 어댑터를 적용하여 Transformers Trainer로 timm 모델 파인튜닝
  • torch.compile 최적화: 컴파일된 모델로 추론 시간 단축 가능
  • Gradio 통합: Pipeline API와 결합하여 웹 기반 데모 빠르게 구축

Impact

아티클에서 정량적 수치는 제시되지 않았다. 벤치마크 코드 예시는 있으나 구체적인 성능 개선 수치(속도 % 향상, 레이턴시 감소값)는 명시되지 않음.

Key Takeaway

Timm과 Transformers의 통합은 단일 API로 32K개 이상의 다양한 컴퓨터 비전 모델에 접근 가능하게 한다. 추론, 양자화, 파인튜닝, 컴파일 최적화를 통합 환경에서 수행할 수 있게 되어 컴퓨터 비전 워크플로우의 일관성과 생산성이 향상된다.


컴퓨터 비전 엔지니어가 모바일 배포용 경량 모델(MobileNetV4)이 필요할 때, timm/mobilenetv4_conv_medium.e500_r256_in1k를 Transformers Pipeline으로 직접 로드하면 추가 모델 변환 없이 추론을 즉시 시작할 수 있다. BitsAndBytesConfig로 양자화하면 5줄 코드로 메모리 사용량을 줄일 수 있고, torch.compile을 적용하면 같은 하드웨어에서 추론 속도를 향상시킬 수 있다.

원문 읽기