피드로 돌아가기
AI Meeting Memory Assistant #ai #python
Dev.toDev.to
AI/ML

Groq LLM과 JSON 기반 Persistent Memory를 결합한 실시간 AI Meeting Assistant 구현

AI Meeting Memory Assistant #ai #python

VENKATA KARTHIK NANDYALA2026년 4월 13일2beginner

Context

회의 기록의 분산과 컨텍스트 소실로 인한 반복적 질의 발생 문제 분석. 단순 챗봇의 휘발성 메모리 한계를 극복하기 위한 지속성 저장소 필요성 대두.

Technical Solution

  • Local JSON 파일을 활용한 Persistent Memory 계층 설계로 데이터 지속성 확보
  • 사용자 입력의 의도 분석을 통한 Note 저장과 Question 답변의 분기 처리 로직 구현
  • Groq API 채택을 통한 Inference 속도 최적화 및 실시간 응답성 강화
  • Retrieval 기반의 컨텍스트 주입을 통해 LLM의 Hallucination 방지 및 정확도 향상
  • Streamlit 기반의 Interface 구축으로 Memory Viewer와 관리 기능을 통합한 사용자 경험 제공

1. LLM 응답 속도 최적화를 위해 Groq와 같은 고속 Inference 엔진 검토

2. 소규모 데이터셋의 경우 복잡한 DB 대신 JSON 기반 Local Storage로 빠른 MVP 구현 가능

3. RAG(Retrieval-Augmented Generation)의 기본 원리를 적용하여 도메인 특화 메모리 구조 설계

원문 읽기