피드로 돌아가기
AI Meeting Memory Assistant #ai #python
Dev.toDev.to
AI/ML

Groq LLM과 Local JSON Memory를 결합한 고속 컨텍스트 기반 AI 에이전트 구현

AI Meeting Memory Assistant #ai #python

Vishnu Sai sri Nallabothula2026년 4월 13일2beginner

Context

회의 기록의 파편화로 인한 정보 손실 및 반복적 질의 발생 문제 분석. 단순 챗봇의 휘발성 메모리 한계를 극복하기 위한 Persistent Memory 구조의 필요성 확인.

Technical Solution

  • Local JSON 파일을 활용한 Persistent Memory 계층 설계로 데이터 영속성 확보
  • 사용자 입력값의 의도 분석을 통한 Note 저장과 Question 질의의 분기 처리 로직 구현
  • Groq API의 초고속 Inference 능력을 활용한 실시간 응답 지연 시간 최소화
  • Retrieval 기반의 컨텍스트 주입으로 LLM의 할루시네이션 방지 및 답변 정확도 향상
  • Streamlit 프레임워크를 통한 인터랙티브 UI와 메모리 관리 기능 통합

1. 빠른 응답 속도가 필수적인 AI 에이전트 설계 시 Groq와 같은 LPU 기반 추론 엔진 검토

2. 초기 단계의 프로토타입에서 복잡한 Vector DB 대신 JSON 기반의 단순 저장소로 데이터 영속성 검증

3. 입력 데이터의 성격에 따라 Write(저장)와 Read(질의) 경로를 명확히 분리하는 라우팅 로직 적용

원문 읽기