피드로 돌아가기
Dropbox TechAI/ML
원문 읽기
How Dash uses context engineering for smarter AI
Dropbox Dash가 Context Engineering을 통해 Tool 정의 수를 제한하고 검색을 통합하면서 모델의 의사결정 정확도 향상 및 응답 속도 개선
AI 요약
Context
Dash가 단순 검색 시스템에서 에이전트 AI로 진화하면서 모델에 제공되는 Tool이 증가했고, 각 Tool의 설명과 파라미터가 Context Window를 과도하게 소비하는 문제가 발생했습니다. Confluence, Google Docs, Jira 같은 여러 외부 서비스의 검색 Tool을 사용할 때 모델이 선택을 못 하거나 비신뢰적인 호출을 수행했으며, 긴 작업에서 Context Rot로 인해 정확도가 저하되었습니다.
Technical Solution
- Tool 정의 수 제한: Confluence, Google Docs, Jira 등의 개별 검색 Tool을 제거하고 Dash universal search index를 단일 인터페이스로 통합하여 모델이 선택할 수 있는 검색 옵션을 하나로 제한
- Context 필터링: 요청에 관련된 정보만 선택적으로 제공하여 불필요한 데이터를 Context Window에서 제거
- 전문화된 에이전트 도입: 깊은 추론이 필요한 작업에 대해 특정 목적의 에이전트를 별도로 구성
- Model Context Protocol(MCP) 서버 설계: Dash 검색 기능을 Claude, Cursor, Goose 같은 MCP 호환 앱에 단일 Tool로 제공하여 API 이해도 불필요하게 함
- Code-based Tool 생성: LLM이 필요시 코드 기반 Tool을 직접 생성하도록 하여 사전 정의된 Tool 수 감소
Impact
아티클에서 정량적 수치가 명시되지 않았습니다.
Key Takeaway
에이전트 AI 시스템에서는 Tool을 많이 추가하는 것보다 모델이 선택할 수 있는 옵션을 명확하게 제한하고 통합된 인터페이스를 제공하는 것이 정확도와 응답 속도 개선의 핵심입니다.
실천 포인트
여러 외부 서비스를 연동하는 LLM 에이전트 시스템을 구축할 때, 각 서비스별로 개별 Tool을 정의하기보다는 통합된 검색/조회 인터페이스를 먼저 구현하면 모델의 의사결정 혼동을 줄이고 Context 토큰 사용량을 감소시킬 수 있습니다.