피드로 돌아가기
This Week in AI Security: OpenAI Codex Hacked, LiteLLM Supply Chain Attack, Claude Gets Computer Control
Dev.toDev.to
Security

AI 보안 사고 3건 동시 발생으로 공급망 신뢰와 AI 도구 신뢰 경계 재검토 필수

This Week in AI Security: OpenAI Codex Hacked, LiteLLM Supply Chain Attack, Claude Gets Computer Control

Not Elon2026년 3월 30일3intermediate

Context

AI 코딩 도구가 GitHub 토큰, 환경 변수 등 사용자 맥락에 자동 접근하지만 이를 보안 경계로 취급하지 않는 구조적 문제가 존재한다. 패키지 설치 시 자동 실행 스크립트에 대한 검증이 이루어지지 않아 악성 코드가 파이프라인에 침투하는 경로가 열린 상태다.

Technical Solution

  • OpenAI Codex는 GitHub 브랜치 이름 검증 미비로 명령 주입 취약점 발생 → 즉시 패치 적용
  • LiteLLM 1.82.8에서 .pth 파일 통한 멀티 스테이지 자격 증명 탈취 발생 → 13분 내 탐지 및 패키지 삭제
  • Claude Computer Use는 피드백 루프 완전 자동화로 보안 검증 없는 코드 배포 가능해짐

Impact

LiteLLM 공격 시 46분 내 47,000건 다운로드 발생. 해당 패키지는 월 95M 다운로드 규모이며 AI 프록시 서버 핵심 의존성이다.

Key Takeaway

AI 도구는 사용자 맥락에 대한 암묵적 신뢰를 보안 경계로 전환해야 하며, vibe coding 환경에서는 AI 생성 코드를 신규 입사자의 Pull Request처럼 취급해야 한다.


vibe coding 프로젝트에서 pip install 실행 시 lockfile 사용 및 해시 검증으로 버전 고정하고, AI 생성 코드는 항상 수동 보안 리뷰 후 배포하며, 노출 가능성이 있는 API 키는 즉시 순환한다

원문 읽기