피드로 돌아가기
InfoQInfoQ
AI/ML

QCon London AI Coding State of the Game: More Capable, More Expensive, More Dangerous Coding Agents

Thoughtworks의 AI 엔지니어가 2024년 대비 2026년 AI 코딩 에이전트의 비용 증가(100줄당 12센트 → 일일 380달러)와 보안 위협 확대를 분석

Olimpiu Pop2026년 3월 22일8intermediate

Context

1년 전만 해도 AI 코딩은 '비브 코딩'(vibe coding) 수준이었고, 단일 규칙 파일(agents.md/claude.md)로 문맥을 제한했다. 최근 자율 코딩 에이전트와 에이전트 스웜으로 진화하면서 비용 폭증과 보안 사건이 주간 단위로 발생하고 있다.

Technical Solution

  • 컨텍스트 엔지니어링 도입: 단일 규칙 파일을 작은 스킬들로 분해하여 granular 접근 방식으로 전환
  • Lazy Loading 패턴 구현: 작업에 따라 필요한 규칙 세트만 로드하여 문맥 윈도우 효율화
  • 무인 실행 기능 확대: 코딩 에이전트를 최대 20분 감독 없이 실행 가능하도록 구성
  • CI/CD 파이프라인 통합: Headless CLI 모드를 GitHub Actions를 통해 직접 연결
  • Agent Teams 기능 활용: 여러 에이전트를 명확한 조정 모델로 오케스트레이션
  • 리스크 프레임워크 적용: AI 실수 확률, 실수의 영향도, 오류 감지 가능성 3개 변수 기반 감시 수준 결정

Impact

  • 코딩 에이전트 비용: 100줄당 12센트(2024년) → 일일 380달러(2026년), 연간 91,200달러
  • Claude Code 초기 세션이 프롬프트 입력 전 이미 15% 문맥 윈도우 점유
  • 보안 사건 빈도: 주간 단위로 발생, 최근 11일 전 GitHub 이슈 조작으로 NPM 레지스트리에 악성 패키지 업로드된 사례 기록
  • OpenAI 팀의 5개월 자율 그린필드 프로젝트: 사용자 정의 린터와 garbage-collection 에이전트에도 불구하고 엔트로피 증가 관찰

Key Takeaway

모델 성능 개선보다 중요한 것은 도구와 실무 관행의 변화이며, 보안은 기술 문제가 아니라 개념 문제다. AI 코딩 에이전트는 적용된 관행을 증폭시키므로, 조직이 어떤 감시 정책을 강제하는지가 결과를 결정한다.


AI 코딩 에이전트를 도입하는 엔지니어링 조직에서 Simon Willison의 치명적 삼중 조건(신뢰할 수 없는 콘텐츠 노출 + 개인 데이터 접근 + 외부 통신 능력)을 회피하기 위해, 에이전트가 사용자 이슈·PR·메일 같은 신뢰할 수 없는 입력에 직접 접근하지 못하도록 sandboxing을 필수로 구성하고 리스크 프레임워크(실수 확률·영향도·감지 가능성)로 감시 수준을 결정해야 한다.

원문 읽기