피드로 돌아가기
Brain-Inspired Memory for LLMs
Dev.toDev.to
AI/ML

nan-forget가 LLM에 점차 잊어버리는 기억, 연결고리로 확장되는 활성화, 수면 중 통합되는 경험을 적용해 AI 코딩 세션의 장기 기억 문제를 해결한다

Brain-Inspired Memory for LLMs

Wayne Ma2026년 3월 31일5intermediate

Context

기존 LLM 코딩 도구는 매 세션마다 관계를 초기화하여 사용자가 JWT 선택 이유, 배포 대상 등의 정보를 반복 입력해야 했다. 대부분의 메모리 도구는 모든 것을 영구 저장하고 벡터 유사도로만 검색하는 데이터베이스 방식으로 동작했다.

Technical Solution

  • 신경과학의 망각 곡선을 모방해 메모리에 30일 반감기를 적용하고 접근 빈도에 따른 부스트를 곱해 검색 점수를 계산한다
  • 3단계 검색 파이프라인(인식, 회상, 확산 활성화)을 구현하여 쿼리와 관련된 암시적 맥락까지Surfacing한다
  • 10회 저장 또는 24시간마다 통합 엔진을 실행하여 동일 주제의 메모리를 클러스터링하고 요약 후 아카이브한다
  • SQLite와 sqlite-vec 확장으로 Docker 의존성을 제거하고 단일 세션에서 Qdrant에서 마이그레이션했다
  • 구조화된 메모리 필드(content, type, problem, solution, concepts, files)를 통해 검색 품질을 향상시켰다

Impact

검색 결과가 시간이 지나면서 동적으로 변화하며, 자주 접근되고 최근에 사용된 맥락이 상위에 랭킹된다.

Key Takeaway

인간의 기억 메커니즘을 추상적 비유가 아닌 구체적인 수식(반감기, 확산 활성화, 통합)으로 구현하면 AI 도구의 메모리 문제를 해결할 수 있다


AI 코딩 어시스턴트 환경에서 장기 기억 시스템 구축 시 망각 곡선 모방(반감기 + 빈도 부스트)을 검색 점수에 적용하면 세션 간 반복 설명을 줄일 수 있다

원문 읽기