피드로 돌아가기
I is not singular — Multi-Agent Simulation with Cognitive Architecture on a Single 8GB GPU
Dev.toDev.to
AI/ML

RTX 3070 8GB 단일 GPU 기반 Multi-LoRA Hot-swap 인지 아키텍처 구현

I is not singular — Multi-Agent Simulation with Cognitive Architecture on a Single 8GB GPU

as1as2026년 5월 1일27advanced

Context

기존 Generative Agents의 Prompt 기반 페르소나 구현은 동일한 가중치를 공유하여 개별 에이전트의 실질적 학습과 가중치 분리가 불가능한 구조적 한계 존재. 경험 축적에 따른 모델 자체의 변화와 무의식적 상태(Unconscious state)가 행동에 반영되지 않는 결정론적 추론 방식의 한계 분석.

Technical Solution

  • Persona LLM과 Inner Module을 분리한 2-Layer Cognitive Architecture 설계로 사고 과정의 구조적 차별화 구현
  • llama.cpp Multi-LoRA Hot-swap 기술을 활용하여 단일 8GB GPU 환경에서 에이전트별 독립적 가중치 적용
  • System 1(think=False) 기반의 Emotion, Instinct, Reasoning 모듈을 통해 무의식적 Baseline 수치에 따른 즉각적 반응 생성
  • System 2(think=True) 기반의 Persona LLM이 내부 모듈의 응답을 통합하여 최종 행동을 결정하는 고차원 추론 프로세스 구축
  • 30턴 주기 Sleep Cycle 도입을 통한 경험 데이터 기반의 Unsloth 4bit LoRA Fine-tuning 및 메모리 압축 수행
  • 무의식 Baseline을 Persona LLM이 직접 참조하지 못하게 차단하여 심리적 일관성과 간접적 행동 유도 메커니즘 구현

- 리소스 제한 환경에서 다수 페르소나 구현 시 Multi-LoRA Hot-swap 검토 - 에이전트의 일관된 성격 유지를 위해 '무의식 수치 -> 하위 모듈 -> 상위 인지'로 이어지는 간접 제어 구조 설계 - 정기적인 가중치 업데이트(Fine-tuning)와 메모리 요약을 통한 지속적 진화 루프 구축

원문 읽기