피드로 돌아가기
AI Watermarking 101: Tools and Techniques
Hugging Face BlogHugging Face Blog
AI/ML

Hugging Face가 AI 워터마킹 기법들을 분류하고 오픈소스 도구들을 소개해 딥페이크 콘텐츠의 출처 추적 및 검증 체계화

AI Watermarking 101: Tools and Techniques

2024년 2월 26일10intermediate

Context

Deepfake 기술의 확산으로 인해 Taylor Swift, Tom Hanks, Joe Biden 등을 무단으로 활용한 AI 생성 이미지, 영상, 음성이 소셜 미디어에서 빠르게 퍼지고 있다. 이러한 콘텐츠는 제품 판매, 무단 조작, 피싱, 선거 미정보 조작 등 악의적 목적으로 사용되며, 정정이 나오기 전에 광범위한 피해를 야기한다.

Technical Solution

  • 생성 시점 워터마킹: 모델 접근 권한이 있을 때 생성 과정 중에 워터마크를 임베딩하여 강건성 확보
  • 생성 후 워터마킹: 폐쇄 소스 모델 출력물에도 적용 가능하나 텍스트 등 일부 콘텐츠 타입에는 미적용
  • 가시 워터마크: OpenAI의 DALL-E 2처럼 우측 하단에 5개 색상 블록으로 표시
  • 비가시 워터마크: Imatag, Truepic 등에서 개발한 사람이 인지할 수 없는 방식의 임베딩
  • 데이터 중독(Data Poisoning) 기법: Glaze, Photoguard로 온라인 이미지를 AI 학습에 부적합하게 변조
  • 이미지 방어 기법: Nightshade, Fawkes로 이미지를 AI 모델 학습 가정을 위반하도록 변조하여 페이크 생성 방해
  • 서명(Signing) 기법: Truepic이 C2PA 표준을 따르는 메타데이터를 임베딩하여 콘텐츠 출처 추적
  • 오픈-클로즈드 하이브리드: Truepic은 워터마킹 코드는 폐쇄하되 공개 JavaScript 라이브러리로 Content Credentials 검증 제공; IMATAG는 호출 코드는 공개하되 워터마커와 디텍터는 비공개
  • 이미지 워터마킹: 다차원 출력 공간을 활용해 패턴 주입
  • 오디오 워터마킹: AudioSeal로 인지 불가능한 주파수(~20Hz 이하 또는 ~20,000Hz 이상)에 메타데이터 임베딩하고 AI 기반 디텍션

Impact

AudioSeal은 자연 및 합성 음성에 대해 샘플 수준(1/16k초 해상도)에서 최고 수준의 디텍션 성능 달성하며, 신호 품질 손상을 최소화하고 여러 오디오 편집에 강건함.

Key Takeaway

AI 워터마킹은 완벽한 방어 수단은 아니지만, 악의적이고 오도적인 AI 사용에 대항하기 위한 강력한 도구이며, 콘텐츠 출처 검증과 조작 탐지의 다층적 접근(워터마킹 + 데이터 중독 + 서명)이 필수적이다.


AI 생성 콘텐츠를 배포하는 플랫폼이나 모델 서비스에서 생성 시점에 워터마킹(또는 AudioSeal 같은 모달리티별 기법)을 자동 임베딩하고, 공개 API로 디텍션 기능을 제공하되 워터마크 생성 알고리즘은 비공개 유지하면 악의적 제거 시도를 방어하면서도 사용자의 검증 권리를 보장할 수 있다.

원문 읽기