피드로 돌아가기
How Dash uses context engineering for smarter AI
Dropbox TechDropbox Tech
AI/ML

How Dash uses context engineering for smarter AI

Dropbox Dash가 Context Engineering을 통해 Tool 정의 수를 제한하고 검색을 통합하면서 모델의 의사결정 정확도 향상 및 응답 속도 개선

Eric Wang,Dmitriy Meyerzon,Dmitriy Meyerzon,Hicham Badri,Appu Shaji,Craig Wilhite,Josh Clemm,Jason Shang,Artem Nabirkin,Dropbox Team,Ameya Bhatawdekar,Sean-Michael Lewis2025년 11월 17일9intermediate

Context

Dash가 단순 검색 시스템에서 에이전트 AI로 진화하면서 모델에 제공되는 Tool이 증가했고, 각 Tool의 설명과 파라미터가 Context Window를 과도하게 소비하는 문제가 발생했습니다. Confluence, Google Docs, Jira 같은 여러 외부 서비스의 검색 Tool을 사용할 때 모델이 선택을 못 하거나 비신뢰적인 호출을 수행했으며, 긴 작업에서 Context Rot로 인해 정확도가 저하되었습니다.

Technical Solution

  • Tool 정의 수 제한: Confluence, Google Docs, Jira 등의 개별 검색 Tool을 제거하고 Dash universal search index를 단일 인터페이스로 통합하여 모델이 선택할 수 있는 검색 옵션을 하나로 제한
  • Context 필터링: 요청에 관련된 정보만 선택적으로 제공하여 불필요한 데이터를 Context Window에서 제거
  • 전문화된 에이전트 도입: 깊은 추론이 필요한 작업에 대해 특정 목적의 에이전트를 별도로 구성
  • Model Context Protocol(MCP) 서버 설계: Dash 검색 기능을 Claude, Cursor, Goose 같은 MCP 호환 앱에 단일 Tool로 제공하여 API 이해도 불필요하게 함
  • Code-based Tool 생성: LLM이 필요시 코드 기반 Tool을 직접 생성하도록 하여 사전 정의된 Tool 수 감소

Impact

아티클에서 정량적 수치가 명시되지 않았습니다.

Key Takeaway

에이전트 AI 시스템에서는 Tool을 많이 추가하는 것보다 모델이 선택할 수 있는 옵션을 명확하게 제한하고 통합된 인터페이스를 제공하는 것이 정확도와 응답 속도 개선의 핵심입니다.


여러 외부 서비스를 연동하는 LLM 에이전트 시스템을 구축할 때, 각 서비스별로 개별 Tool을 정의하기보다는 통합된 검색/조회 인터페이스를 먼저 구현하면 모델의 의사결정 혼동을 줄이고 Context 토큰 사용량을 감소시킬 수 있습니다.

원문 읽기