피드로 돌아가기
Pinterest가 AI에이전트를 위한 프로덕션 MCP 에코시스템을 구축한 방법
GeekNewsGeekNews
Backend

Pinterest가 AI에이전트를 위한 프로덕션 MCP 에코시스템을 구축한 방법

Pinterest가 Model Context Protocol을 프로덕션 엔지니어링 인프라로 통합해 월 66,000건 호출과 월 7,000시간 절감 달성

neo2026년 3월 23일9advanced

Context

AI 에이전트가 LLM과 도구·데이터를 통합할 때 모델·도구별로 별도 통합을 구현해야 하는 비효율이 있었습니다. Pinterest는 AI 지원 IDE, 내부 챗, AI 봇 등 다양한 서피스에서 일관된 엔지니어링 작업 자동화(로그 분석, 버그 수정 제안 등)를 제공하기 위해 통합 표준이 필요했습니다.

Technical Solution

  • 도메인별 소형 MCP 서버 다중 배포: 단일 모놀리식 서버 대신 Presto, Spark, Airflow 등 기능별 MCP 서버를 독립적으로 운영해 서버별 접근 제어와 모델 컨텍스트 효율성 확보
  • 중앙 MCP 레지스트리 구축: 승인된 서버 목록, 연결 방법, 소유 팀, 보안 태세를 관리하는 단일 진실 공급원으로 웹 UI와 API 제공해 클라이언트(내부 AI 챗, IDE, 에이전트)가 서버 탐색·검증·인가 판정에 활용
  • 통합 배포 파이프라인 도입: 팀이 도구 로직만 정의하면 플랫폼이 배포, 스케일링, 서비스 설정을 자동 처리해 신규 MCP 서버 구축 사전 작업 부담 제거
  • 엔드유저 JWT + SPIFFE 이중 인증 레이어: Envoy에서 JWT 검증 및 X-Forwarded-User, X-Forwarded-Groups 헤더 매핑 후 서버 내 @authorize_tool 데코레이터로 세밀한 권한 제어(그룹별 도구 접근 제한)
  • 비즈니스 그룹 기반 접근 게이팅: JWT에서 그룹 멤버십을 추출해 민감 서버(Presto, Ads, Finance 등)는 승인된 그룹 소속만 세션 수립 및 고권한 도구 실행 가능하도록 구현
  • 클라우드 호스팅 기본 경로 채택: 내부 라우팅·보안 로직 적용이 용이한 클라우드 호스팅 MCP 서버를 프로덕션 표준으로 지정하고 로컬 서버는 실험 용도만 허용
  • Human-in-the-Loop 검증 메커니즘: 민감하거나 비용이 큰 액션(테이블 덮어쓰기 등) 전 사람의 승인 필수로 설정하고 엘리시테이션으로 확인 요청 구현
  • 통합 관측성 인프라: 모든 MCP 서버에 라이브러리 함수 적용해 입출력 로깅, 호출 횟수, 예외 추적, 텔레메트리를 기본 제공하고 호출당 절감 시간으로 영향도 산출

Impact

  • 월 호출 수: 66,000건(2025년 1월 기준)
  • 월간 활성 사용자: 844명
  • 추정 월 절감 시간: 7,000시간

Key Takeaway

MCP를 엔지니어 생산성 인프라로 자리잡게 한 핵심은 보안 우선 설계(이중 인증, 그룹 기반 접근 제어), 통합 배포 파이프라인으로 온보딩 마찰 제거, 직원이 이미 사용하는 도구(IDE, 내부 챗, AI 봇)에 MCP를 투명하게 통합한 것입니다. 추가 로그인 프롬프트 없이 기존 세션을 재활용하고 Human-in-the-Loop 검증으로 자동화의 폭발 반경을 제어하면 실험 단계를 넘어 대규모 조직에서 신뢰할 수 있는 AI 에이전트 인프라가 될 수 있습니다.


AI 에이전트 또는 내부 LLM 도구 생태계를 구축하는 조직에서 Model Context Protocol을 도입할 때, 단일 모놀리식 서버가 아닌 도메인별 소형 서버 + 중앙 레지스트리 아키텍처를 채택하고 통합 배포 파이프라인으로 온보딩 비용을 낮추며, 기존 인증 세션을 재활용하는 엔드유저 JWT 기반 흐름과 비즈니스 그룹 기반 접근 제어를 적용하면 월 7,000시간 규모의 엔지니어 시간 절감을 달성할 수 있습니다.

원문 읽기