피드로 돌아가기
I built a visual LLM canvas where every branch has its own model, prompt, and context settings
Dev.toDev.to
AI/ML

Knowledge-State 분리 설계를 통한 Multi-Model Branching 캔버스 구현

I built a visual LLM canvas where every branch has its own model, prompt, and context settings

ContextTree2026년 5월 2일2intermediate

Context

단일 스레드 기반 LLM 대화에서 발생하는 Context Contamination 문제로 인한 논리적 일관성 상실. 기존의 New Chat 생성 및 수동 컨텍스트 복사 방식이 가진 비효율성과 파편화된 워크플로우의 한계.

Technical Solution

  • Node-based Visual Canvas 구조 채택을 통한 대화 흐름의 Graph 데이터 모델링
  • Child Node가 Parent Lineage만 상속받고 Sibling/Cousin 노드는 완전히 격리하는 Strict Isolation 아키텍처 설계
  • 각 Node별 Model, System Prompt, Temperature, Context Budget 등 독립적 하이퍼파라미터 설정 기능 구현
  • "Knowledge not State" 원칙에 기반하여 Parent의 Live State 공유를 차단하고 Fork 시점까지의 Ancestry-scoped Vector Search만 허용하는 데이터 흐름 설계
  • SIMILAR_CONTEXT_LIMIT 설정을 통한 노드 단위의 컨텍스트 검색 범위 제어 및 하드 격리 옵션 제공

1. LLM 컨텍스트 설계 시 Mutable State 공유 대신 Immutable Ancestry 기반의 지식 상속 구조 검토

2. 도메인별 특화 응답이 필요한 경우 단일 시스템 프롬프트 대신 노드/단계별 Prompt Stack 구조 도입

3. 컨텍스트 오염 방지를 위해 Vector Search의 검색 범위를 특정 시점(Fork Point)으로 제한하는 캡핑 메커니즘 적용

원문 읽기