피드로 돌아가기
I tried Karpathy's LLM Wiki pattern on my AWS consulting work — here's what changed
Dev.toDev.to
AI/ML

RAG를 넘어선 LLM Wiki 패턴 기반의 영속적 지식 베이스 구축

I tried Karpathy's LLM Wiki pattern on my AWS consulting work — here's what changed

Alex2026년 4월 14일10intermediate

Context

단순 RAG 방식의 반복적인 소스 재분석으로 인한 컨텍스트 윈도우 낭비와 지식 파편화 발생. 컨설팅 업무의 특성상 클라이언트별 제약 사항과 공통 패턴이 혼재되어 관리 효율성이 저하되는 병목 지점 확인.

Technical Solution

  • Raw sources, Wiki, CLAUDE.md의 3계층 구조 설계를 통한 데이터 무결성 및 가공성 확보
  • 원천 데이터의 Immutable Layer(raw/) 설계를 통해 Wiki 계층의 공격적인 리팩토링 가능 환경 구축
  • YAML Frontmatter 기반의 Schema 정의로 LLM이 필요한 문서 타입(gotcha, decision 등)만 선택적 쿼리 수행
  • CLAUDE.md 파일을 통한 LLM 오퍼레이션 설정 및 워크플로우 표준화로 지식 업데이트 자동화
  • 소스 추적성(Traceability) 확보를 위해 Wiki 내 모든 주장에 대해 raw 경로를 명시하는 강제 규칙 적용

- 지식 베이스 설계 시 원천 데이터(Raw)와 가공 데이터(Wiki)의 저장소를 엄격히 분리했는가 - LLM의 컨텍스트 효율을 위해 메타데이터(type, tags) 기반의 필터링 구조를 갖추었는가 - 지식 생성 과정에서 원천 소스로의 역추적이 가능한 Traceability 메커니즘이 존재하는가 - LLM의 동작 방식을 정의하는 시스템 프롬프트 혹은 설정 파일(CLAUDE.md)을 버전 관리하고 있는가

원문 읽기