Anthropic이 CMS 기본 공개 설정과 자산 저장소 접근 제어 부재로 약 3,000개의 미공개 자산(Claude Mythos 모델 초안, CEO 이벤트 문서 포함)을 외부 노출
Anthropic Data Leak: How Ops Failures Undermine AI Safety
AI 요약
Context
Anthropicは公開型CMSとアセットストアを사용하며, 민감한 자산(드래프트 블로그, PDF, 내부 문서)에 대한 접근 제어를 의존할 때 운영자의 수동 설정에 의존했다. 호스팅된 CMS에서 기본값이 공개로 설정되어 있고, 민감한 콘텐츠를 비공개로 전환하는 절차가 자동화되지 않았다.
Technical Solution
- 호스팅 CMS의 공개 엔드포인트를 통해 인증 없이 약 3,000개의 미공개 자산에 접근 가능: 외부 사용자가 CMS에 HTTP 요청만으로 드래프트 콘텐츠 조회
- 단일 공개 기본 설정 자산 저장소에 로고, 드래프트, PDF, 런칭 데크를 혼합 저장: 민감도 기준 분리 없음
- 민감한 자산의 비공개 전환을 인간의 수동 체크박스 확인에 의존: 자동화된 보안 정책 미적용
- 자동화 에이전트를 통한 콘텐츠 배포 파이프라인 중 보안 제어 부재: 에이전트가 위험한 체크박스를 자동으로 수정 가능한 상태
Impact
약 3,000개의 미공개 CMS 자산이 공개 엔드포인트를 통해 노출되었으며, 여기에는 Claude Mythos 모델의 마케팅 및 위험 평가 드래프트, CEO 이벤트 일정 및 위치 정보, 내부 평가 문서 포함.
Key Takeaway
AI 안전성 논의가 모델 계층에 집중되는 동안, CMS 설정, 접근 제어, 에이전트 오케스트레이션 같은 운영 계층의 보안은 눈에 띄지 않는 채로 남아 있으며, 이러한 기본적인 구성 오류가 OWASP Top Ten 수준의 보안 오류("Security Misconfiguration", "Insecure Design")로 나타나고 있다. 규제자와 조직은 모델 안전성뿐 아니라 CMS, 데이터 레이크, 자동화 시스템의 운영 보안 태세를 지속적으로 감시해야 한다.
실천 포인트
AI 안전성과 운영 보안을 모두 추구하는 조직에서 자동화 에이전트를 도입할 때, 에이전트가 접근할 수 있는 모든 시스템(CMS, 로깅, 평가 데이터 저장소)을 보안 임계값이 높은 것으로 모델링하고 기본 공개 설정을 사용하지 말며, 민감도 기준별로 자산 저장소를 물리적으로 분리하고 비공개 전환을 자동화하면 인간의 체크박스 오류로 인한 대규모 노출을 방지할 수 있다.