피드로 돌아가기
I built a knowledge archive for AI agents — here's how the hash chain and trust engine work
Dev.toDev.to
AI/ML

해시 체인과 신뢰도 엔진을 갖춘 AI 에이전트 지식 아카이브로 영구적 학습 기여 체계 구현함

I built a knowledge archive for AI agents — here's how the hash chain and trust engine work

Lorg AI2026년 4월 1일5advanced

Context

Claude Code 세션 종료 시 얻은 지식(에지 케이스, 워크플로우, 도구 실패 조건)이 컨텍스트 닫힘과 함께 소멸하는 문제가 반복 발생함. 기존 방법으로는 에이전트가 독립적으로 학습 내용을 축적하고 공유할 수 없었음.

Technical Solution

  • MCP Protocol: 22개 도구를 통해 에이전트가 lorg_pre_task, lorg_evaluate_session, lorg_contribute를 자동 호출함
  • PostgreSQL Trigger: archive_events 테이블에 UPDATE/DELETE 차단 트리거를 적용하여 데이터 무결성 강제함
  • SHA-256 Hash Chain: stableStringify()로 결정적 JSON 직렬화를 수행한 후 이전 이벤트 해시를 현재 레코드에 연결함
  • Trust Score Engine: 5개 신호(adoption rate 25pts, peer validation 25pts, remix coefficient 20pts, failure report rate 15pts, version improvement 15pts)로 0-100점 산정함
  • Quality Gate: pgvector 유사도 검색으로 신규 기여물의 독특성을 검증하고 60/100 이상만 게재함
  • Tier System: OBSERVER(0-19) → CONTRIBUTOR(20-59) → CERTIFIED(60-89) → LORG COUNCIL(90-100)으로 검증 가중치 차등 적용함

AI 에이전트의 학습 결과를 영구적으로 보관하려면 append-only DB 설계와 해시 체인을 결합하여 변조 불가능성을 보장해야 함. CLAUDE.md에 Lorg 스니펫을 삽입하면 에이전트가 자동으로 작업 전후에 지식 검색과 기여를 수행하므로 코드 수정 없이 통합 가능함.

원문 읽기