피드로 돌아가기
Dev.toBackend
원문 읽기
I Built an Autonomous AI Outreach Swarm — Now It Reports to Notion in Real-Time
개발자가 AI 에이전트 swarm의 실시간 모니터링을 위해 Notion MCP를 도입해 60초 주기의 자동 로깅과 필터링 가능한 대시보드 구현
AI 요약
Context
자동 실행되는 AI 에이전트 swarm(Reddit 스크래핑 → 복사 생성 → 채점)의 결과물을 추적할 수 없었다. 수천 줄의 로그 파일과 불투명한 JSON 파일만 남겨져 어떤 사이클이 최고 점수를 얻었는지, 어떤 에이전트가 우수 성능을 낸지, 어떤 아웃리치 카피가 배포 준비 완료인지 파악이 어려웠다.
Technical Solution
- Notion MCP를 활용한 side-car bridge 구현: nexus_notion_reporter.py 스크립트가 60초 주기로 nexus_deployable_copy.json 파일을 폴링하며 새로운 swarm 사이클 감지
- Notion 데이터베이스 자동 스키마 생성: 초기 실행 시 Cycle ID, Score(0~1), MVP Agent, Type, Posted, Timestamp, Scout Context 필드 자동 구성
- 상태 추적을 통한 중복 방지: 로컬 상태 파일과 비교해 이미 로깅된 사이클은 제외하고 신규 사이클만 Notion에 기록
- 각 swarm 사이클마다 생성된 아웃리치 카피를 Notion 페이지 블록으로 임베드해 전체 컨텍스트 보존
- 완전 독립형 아키텍처: 실행 중인 swarm 프로세스에 영향을 주지 않으면서 Redis와 SQLite를 기반으로 로컬에서 8개 이상의 specialized agent 운영
Impact
초기 실행 시 8개의 과거 swarm 사이클을 Notion에 역입력했으며, 이후 신규 사이클은 완료 후 60초 이내에 Notion 행으로 자동 생성된다.
Key Takeaway
장시간 실행되는 자동화 시스템의 출력물은 단순한 파일 저장이 아니라 쿼리 가능한 데이터베이스 형태로 구조화해야 한다는 점이다. Side-car 패턴으로 모니터링 로직을 분리하면 핵심 비즈니스 로직에 영향 없이 관찰성을 확보할 수 있다.
실천 포인트
자동화된 에이전트나 배치 작업을 실행하는 백엔드 시스템에서, 결과물을 JSON이나 로그 파일에만 저장하지 말고 Notion API 같은 외부 DB와 폴링 기반 bridge로 통합하면, 의사결정자나 운영팀이 실시간으로 필터링·정렬·검색 가능한 대시보드를 얻을 수 있다.