피드로 돌아가기
Dev.toAI/ML
원문 읽기
Disk-based Markdown Loop를 통한 LLM의 지속적 페르소나 구현
Why OpenClaw Feels More Human the Longer You Use It
AI 요약
Context
정적 Prompt 기반 LLM의 휘발성 컨텍스트로 인한 단기 기억 상실 및 연속성 결여 문제 발생. 세션 종료 후 이전 상태를 유지하지 못하는 LLM의 구조적 한계를 극복하기 위한 영속성 계층 필요성 제기.
Technical Solution
- Markdown 기반의 Workspace를 외부 Storage로 활용한 Chat-Persist-Load 루프 설계
- Responsibility-based Slotting을 통해 Constitution, Persona, User Profile 등 역할별로 파일을 분리하여 관리하는 구조 채택
- LLM의 Attention 특성을 고려하여 Hard Rule(Top)과 Today's Log(Tail)를 배치하는 U-shape Prompt Ordering 적용
- 토큰 소모 최적화를 위해 전체 라이브러리 대신
memory_search를 통한 필요한 슬라이스만 추출하여 주입하는 RAG 패턴 구현 - 세션 종료 전 핵심 포인트를 Disk에 Checkpoint 하여 컨텍스트 압축 및 절단 시의 정보 손실 방지
실천 포인트
1. 반복 가능 워크플로우를 SKILL.md로 정형화하여 모델의 수행 능력 고정
2. 단일 Workspace 내 정보 혼재를 막기 위해 도메인별 Multi-Workspace 분리 운영
3. 주기적인 AGENTS.md 및 USER.md 검토를 통해 오래된 규칙과 선호도 Pruning 수행
4. 가중치(Weights)가 아닌 데이터 디렉터리 자체를 핵심 자산으로 간주하여 Git 백업 체계 구축