피드로 돌아가기
Dev.toAI/ML
원문 읽기
메모리를 DB 저장이 아닌 1-3B 파라미터의 학습된 인지 기술로 정의한 PSM 아키텍처
The Personal Small Model (PSM): Memory as a Learned Cognitive Primitive
AI 요약
Context
기존 메모리 시스템이 단순 Database 저장과 Retrieval 기반의 Context 주입 방식에 의존하며 발생하는 모델의 망각 문제 분석. 메모리를 저장소 문제가 아닌 인지적 기술(Cognitive Skill)의 부재로 정의하여 구조적 한계점 식별.
Technical Solution
- 메모리 운영 전담 1-3B 규모의 PSM(Personal Small Model)을 도입하여 Relevance gating 및 Consolidation 로직 분리
- PSM Weight에는 메모리 관리 기술만 학습시키고 실제 사용자 데이터는 별도의 Memory Store에 격리하여 Privacy leakage 및 Catastrophic forgetting 방지
- 뇌의 구조를 모방한 Sensory Buffer, Working Memory, Episodic/Semantic/Archival Store의 계층적 메모리 티어 설계
- LLM의 최종 성능 향상 여부를 Reward Signal로 사용하는 Reinforcement Learning 기반의 메모리 유틸리티 학습
- 세션 종료 후 비동기 루프로 최근 에피소드를 Semantic 패턴으로 추출하고 중복 데이터를 제거하는 Sleep-time Consolidation 프로세스 구현
- 메모리 엔트리에 Strength, Decay rate, Provenance 등 PSM이 관리하는 메타데이터를 부여하여 Recall Weighting 정밀화
실천 포인트
1. 메모리 관리 로직을 메인 LLM의 추론 과정에서 분리하여 추론 비용 최적화 검토
2. 사용자별 데이터 저장소와 모델 가중치를 엄격히 분리하여 데이터 격리 및 보안 아키텍처 설계
3. 단순 Vector DB 검색 대신 데이터의 중요도와 시간에 따른 Decay를 계산하는 가중치 시스템 도입
4. 실시간 처리 대신 비동기 배치 작업을 통한 데이터 압축 및 의미론적 통합(Consolidation) 파이프라인 구축