피드로 돌아가기
I Built an llms.txt Generator, Showed It to the Creator of the Standard, and Had to Rewrite Everything
Dev.toDev.to
AI/ML

4,000페이지 규모의 AI 전용 문서 구조화를 위한 계층적 요약 파이프라인 구축

I Built an llms.txt Generator, Showed It to the Creator of the Standard, and Had to Rewrite Everything

David Evdoshchenko2026년 5월 6일5advanced

Context

단순 URL 목록 나열 방식의 Flat strategy로는 대규모 사이트의 정보 밀도와 AI 에이전트의 컨텍스트 윈도우 한계를 해결하기 어려움. 인간의 큐레이션을 자동화하여 AI가 탐색 가능한 계층적 Markdown 구조로 변환하는 시스템 설계가 필요함.

Technical Solution

  • Embeddings와 k-means clustering을 활용하여 수천 개의 페이지를 의미론적 그룹으로 분리함으로써 LLM 컨텍스트 윈도우 제약 해결
  • Gemini Context Caching을 도입하여 반복되는 클러스터 데이터의 입력 토큰 비용 절감 및 처리 속도 향상
  • 각 레이어(Crawling, Embedding, Summarizing) 사이에 In-memory buffer를 배치하여 서로 다른 처리 속도로 인한 병목 현상 제거
  • LLM의 비결정적 응답과 API 오류 대응을 위해 Typed exception hierarchy 및 AIMD queue 기반의 Backoff 메커니즘 구현
  • Redis를 활용한 중간 결과 캐싱으로 시스템 장애 시 처음부터 다시 토큰을 소비하지 않고 중단 지점부터 재개하는 복구 구조 설계

- 대규모 텍스트 처리 시 단순 LLM 호출 전 Embedding 기반의 Clustering으로 데이터 셋을 최적화했는가 - 외부 API 의존성이 높은 파이프라인에서 Retry-after 헤더를 반영한 지능형 Queue와 Backoff 전략을 수립했는가 - 서로 다른 처리 속도를 가진 단계적 프로세스 사이에 Buffer를 두어 Throughput을 최적화했는가 - 비용 최적화를 위해 Context Caching과 같은 LLM 제공 최적화 기능을 검토했는가

원문 읽기