피드로 돌아가기
Building a multi-source autonomous research agent with LangGraph, ThreadPoolExecutor and Ollama
Dev.toDev.to
AI/ML

순차 처리 5분에서 45초로, LangGraph 기반 병렬 리서치 에이전트 설계

Building a multi-source autonomous research agent with LangGraph, ThreadPoolExecutor and Ollama

Roberto de la Cámara2026년 4월 3일6intermediate

Context

기존 리서치 에이전트의 순차적 검색 방식은 소스 증가에 따라 지연 시간이 선형적으로 증가하는 구조. 10개 소스 조회 시 최소 50~100초의 시간이 소요되는 성능 한계 존재. 데이터 합성 전 단계에서 발생하는 과도한 대기 시간 해결 필요.

Technical Solution

  • LangGraph의 StateGraph를 활용하여 연구 계획, 병렬 검색, 평가, 보고서 생성으로 이어지는 상태 기반 워크플로우 설계
  • ThreadPoolExecutor를 도입하여 다수 소스(Wikipedia, arXiv, GitHub 등)에 대한 네트워크 요청을 동시 처리하는 병렬 실행 모델 구축
  • YouTube 검색과 요약처럼 의존 관계가 있는 작업은 병렬 실행기 내부에서 순차적으로 처리하는 컴포즈 노드 방식 적용
  • LLM 기반의 평가 노드를 배치하여 지식 공백 발견 시 다시 계획 단계로 회귀하는 자가 수정 루프(Self-correction loop) 구현
  • 사용자 페르소나(Software Architect, Market Analyst 등)에 따라 검색 대상 소스를 동적으로 선택하는 최적화 전략 채택
  • 환경 변수 기반의 LLM 팩토리 구조를 설계하여 Ollama 로컬 모델과 Cloud API 간의 설정 변경 없는 유연한 전환 지원

Impact

  • 전체 리서치 수행 시간 약 5분에서 약 45초로 단축

Key Takeaway

  • 독립적인 I/O 작업은 병렬화하고 의존성이 있는 작업은 캡슐화된 순차 노드로 처리하여 전체 파이프라인의 처리량을 극대화하는 설계 전략

다중 외부 API 호출이 필요한 에이전트 설계 시, LangGraph의 조건부 엣지와 ThreadPoolExecutor를 조합하여 지연 시간을 최소화할 것

원문 읽기
Building a multi-source autonomous research agent with LangGraph, ThreadPoolExecutor and Ollama | Devpick