피드로 돌아가기
I got tired of repeating myself to every AI. So I built a persistent memory system.
Dev.toDev.to
AI/ML

토큰 30:1 압축과 컴파일 기반의 LLM Persistent Memory 시스템 구축

I got tired of repeating myself to every AI. So I built a persistent memory system.

Javier Rotllant2026년 5월 9일5intermediate

Context

다양한 LLM 세션 간 컨텍스트 단절과 긴 대화로 인한 토큰 소모 증가 문제 직면. 기존의 Mem0, Letta 등은 인프라 구축 비용과 구독 모델 등 운영 오버헤드로 인한 도입 제약 존재.

Technical Solution

  • 계층적 폴더 구조를 제거한 Flat Lake 기반 문서 설계로 LLM의 연상 작용 최적화
  • NEURONS와 ENABLERS라는 두 가지 핵심 카테고리로 도메인 지식과 실행 도구 분리
  • Python 기반 컴파일러를 통한 중복 제거 및 최적화로 분산된 Markdown 데이터를 단일 최적화 파일로 변환
  • AI 세션 간 3회 이상의 교차 검증 투표 시스템을 통한 데이터 무결성 유지 및 자동 정제
  • 에이전트 정의를 .md 파일로 추상화하여 플랫폼 종속성 없는 Agent-as-a-Document 구조 구현
  • File Watcher 도입을 통해 데이터 변경 시 8초 내외의 자동 재컴파일 파이프라인 구축

1. LLM 컨텍스트 설계 시 폴더 구조보다 데이터 간 연관성 중심의 Flat 구조 검토

2. 런타임에 전체 데이터를 주입하는 대신 전처리 컴파일 단계를 통한 토큰 최적화 적용

3. 에이전트의 페르소나와 규칙을 코드나 설정값이 아닌 Markdown 문서로 관리하여 이식성 확보

4. 데이터 수정 시 단일 AI의 판단이 아닌 다수 세션의 교차 검증 로직 도입

원문 읽기