피드로 돌아가기
Dev.toSecurity
원문 읽기
82퍼센트의 임원이 AI 에이전트 보안 정책을 갖추었다 믿지만 실제로 보안 검토를 완료한 에이전트는 14.4퍼센트에 불과한 상황
Securing the Agentic Era: AI Agents as First-Class Security Principals
AI 요약
Context
현재 기업들은 OAuth 프로토콜을 AI 에이전트에 그대로 적용하고 있다. OAuth는 인간 사용자의 30분 세션을 전제로 설계되었으나 에이전트는 세션을 무한히 유지하며 다른 도구에 토큰을 전달한다. 이로 인해 환경변수에 API 키를 저장하는 등 기존 보안 모델이 무력화되고 있다.
Technical Solution
- GitHub → Copilot Coding Agent를 chroot jail 컨테이너에서 실행하고 인증 토큰과 LLM 키를 별도 프록시 컨테이너에 분리 배치
- Microsoft → Agent 365 플랫폼으로 모든 에이전트를 중앙 등록하고 통합 감사 및 취소 기능 제공
- Scalekit → 범위 기반 OAuth 대신 단일 행동만 가능한 Capability Token 발급 모델 제안
- Cloudflare → 에지 레이어에서 프롬프트 인젝션 탐지 및 PII 스캐닝 기능 제공
- Cisco → 모델 가중치에 주입된 악성 데이터 완전 제거 불가 문제(Data Permanence) 식별
Impact
파인 튜닝 공격은 Claude Haiku에서 72퍼센트, GPT-4o에서 57퍼센트의 가드레일을 우회하여 시스템 프롬프트 기반 보안의 한계를 증명했다.
Key Takeaway
보안은 프롬프트가 아닌 인프라 레이어에서 구현해야 한다. 에이전트 환경변수에 OPENAI_API_KEY를 저장 보안은 이미 침해된 상태이다.
실천 포인트
AI 에이전트 플랫폼 환경에서 인증 토큰 관리 시 프록시 컨테이너를 통해 에이전트가 원시 문자열에 접근하지 못하도록 격리하는 방식으로 데이터 유출 위험을 제거할 수 있다