피드로 돌아가기
Hugging Face Teams Up with Protect AI: Enhancing Model Security for the ML Community
Hugging Face BlogHugging Face Blog
Security

Hugging Face가 Protect AI의 Guardian을 통합해 ML 모델 저장소의 자동 보안 스캔으로 pickle 및 Keras Lambda 레이어의 임의 코드 실행 취약점 감지

Hugging Face Teams Up with Protect AI: Enhancing Model Security for the ML Community

2024년 10월 22일5intermediate

Context

Hugging Face는 100만 개 이상의 모델 저장소가 공개되면서 pickle, Keras Lambda 등 직렬화 포맷을 통한 임의 코드 실행(arbitrary code execution) 취약점에 노출되어 있었다. 플랫폼의 인기가 증가하면서 악의적인 모델 공유로부터 커뮤니티를 보호할 필요성이 대두되었다.

Technical Solution

  • Guardian 스캐너를 써드파티 보안 스캔 도구로 통합: pickle 및 Keras Lambda 레이어 외 추가 파일 포맷의 취약점 감지
  • 자동 스캔 파이프라인 구성: 모든 공개 모델 저장소에 파일 푸시 시 자동으로 Guardian 스캔 실행
  • 프론트엔드 스캔 결과 표시 개선: pickle import 스캔 발생 시 Pickle 버튼 추가 표시
  • picklescan과 Guardian을 스캐너 스위트에 통합: 기존 내부 도구와 함께 다층 검사 체계 구축

Impact

이미 수억 개 파일 스캔 완료. 모든 신규 공개 모델은 푸시 시점에 자동 스캔됨.

Key Takeaway

모델 공유 플랫폼의 보안은 수동 점검보다 자동화된 스캔 파이프라인으로 전환하되, 직렬화 포맷별 특화된 도구(picklescan, Guardian)를 조합하면 다양한 공격 벡터를 사전에 차단할 수 있다.


모델 저장소를 운영하는 MLOps 팀은 pickle, SafeTensors 등 직렬화 포맷별로 전문화된 정적 분석 도구(Guardian, picklescan)를 CI/CD 파이프라인에 통합하면 사용자 수락 경험을 해치지 않으면서 임의 코드 실행 취약점을 자동 감지할 수 있다.

원문 읽기