피드로 돌아가기
How to build an LLM wiki with How to build an LLM wiki with Claude and MCP
Dev.toDev.to
AI/ML

MCP 기반 Persistent Knowledge Base 구축을 통한 LLM 컨텍스트 유지 최적화

How to build an LLM wiki with How to build an LLM wiki with Claude and MCP

Evert2026년 5월 4일5beginner

Context

기존의 LLM 컨텍스트 주입 방식은 매 세션마다 사용자가 수동으로 데이터를 복사하여 붙여넣는 One-shot 방식에 의존함. Karpathy의 로컬 Markdown 기반 패턴은 설정 복잡도가 높고 동기화 및 유지보수 비용이 크다는 한계가 존재함.

Technical Solution

  • MCP(Model Context Protocol) 서버를 내장한 Hjarni Knowledge Base 도입을 통한 LLM-데이터 저장소 간 직접 연결 구조 설계
  • Static File 읽기 방식에서 탈피하여 LLM이 필요 시점에 능동적으로 데이터를 Fetch하는 Dynamic Context Retrieval 구현
  • LLM이 분석 결과나 결정 사항을 저장소에 직접 기록하는 Write-back 메커니즘을 통한 지식의 자동 누적(Compounding) 구조 채택
  • 폴더 및 태그 기반의 구조화된 데이터 스키마 설정을 통한 컨텍스트 탐색 효율성 증대
  • MCP 표준 인터페이스 활용으로 Claude, ChatGPT 등 서로 다른 LLM 클라이언트 간 동일한 Knowledge Base를 공유하는 Cross-client 통합 환경 구축

- 단순 프롬프트 주입 대신 MCP 표준을 활용한 외부 상태 저장소 연결 검토 - LLM이 스스로 컨텍스트를 업데이트하는 Write-back 루프 설계 적용 - 사용자 프로필, 기술 스택, 프로젝트 결정 이력을 구조화하여 LLM 전용 위키로 관리

원문 읽기