피드로 돌아가기
Dev.toAI/ML
원문 읽기
Trust Boundary 기반 Multi-Agent 분리 통한 Context Bloat 해결 및 보안 강화
I thought multi-agent meant more prompts until I saw 3 ways OpenClaw users are actually splitting the work
AI 요약
Context
단일 Workspace 내 Prompt 분리 방식의 Multi-Agent 구현은 Context Bloat와 보안 경계 부재라는 한계를 가짐. 모든 에이전트가 동일한 Tool Surface와 Memory Policy를 공유하여 전문성 결여 및 권한 남용 위험이 발생하는 구조임.
Technical Solution
- A2A(Agent-to-Agent) 통신 기반의 독립적 OpenClaw Instance 배포를 통한 물리적 Trust Boundary 구축
- Librarian-Executor-Interface로 이어지는 역할별 전용 Runtime 및 API Key 분리 설계
- Librarian Agent를 통한 RAG retrieval 및 Document selection 전담으로 Executor의 Context Window 최적화
- Interface Agent가 외부 요청의 Policy Check 및 Redaction을 수행하는 Gateway 역할 수행
- Memory Policy, Tool Class, Risk Profile이 상이한 기능 단위의 에이전트 격리 전략 채택
- Token 기반 과금 체계를 Standard Compute(Flat-rate)로 전환하여 아키텍처 세분화에 따른 호출 증가 비용 최적화
실천 포인트
- 에이전트 분리 전 '어떤 에이전트가 이 정보를 알아야 하는가'와 '어떤 도구 권한이 필요한가'를 먼저 정의 - Tool, Memory, Runtime 중 하나라도 상이한 경우 독립된 Instance로 분리 검토 - RAG 구현 시 Retrieval 전용 Librarian Agent를 배치하여 Executor에게 전달되는 Context 양을 최소화 - 외부 노출 접점인 Interface Agent와 내부 실행 유닛인 Executor Agent 사이의 권한 격리 확인