피드로 돌아가기
Dev.toSecurity
원문 읽기
LLM 판단을 권한으로 오용한 Prompt-based Authorization의 설계 결함 분석
Prompt as Authorization
AI 요약
Context
별도의 Policy Engine 없이 System Prompt에 정의된 규칙만으로 권한을 제어하는 Minimal Agent 구조 채택. Model의 판단이 곧 실행 권한이 되는 구조로 인해 결정과 승인 단계가 통합된 아키텍처적 한계 존재.
Technical Solution
- System Prompt 내 사용자 신원(Identity)과 비즈니스 규칙(Refund Limit $50)을 텍스트 형태로 정의
- Model-Dispatcher-Backend로 이어지는 단순 선형 Control Flow 구성으로 지연 시간 최소화
- Model이 Tool Call 여부를 결정하는 유일한 Decision Point로 작동하는 설계
- 별도의 API Gateway나 Middleware 없이 Model의 출력값을 기반으로 Backend API 직접 호출
- 권한 검증 로직을 코드 레벨이 아닌 LLM의 추론 과정에 위임한 Prompt Policy 방식 적용
실천 포인트
- LLM의 Tool Call 생성 여부를 절대적인 Authorization으로 신뢰하지 말 것 - 비즈니스 제약 조건(금액 제한, 권한 확인)은 반드시 Backend의 Stateless한 Validation 계층에서 재검증할 것 - Decision(LLM)과 Enforcement(Policy Engine/Backend)를 물리적으로 분리하는 Architecture 설계 검토