피드로 돌아가기
Dev.toBackend
원문 읽기
AI-first Support Layer 구축을 통한 상담 자동화율 80% 달성
Building an AI-Powered Customer Support Layer with Oscar Chat API: A Developer's Guide
AI 요약
Context
Intercom Webhook과 커스텀 Node.js 핸들러의 파편화된 연동으로 인한 운영 효율 저하 상황. 여러 채널의 인박스가 분산되어 상담 맥락 파악을 위한 잦은 탭 전환과 응답 지연 발생.
Technical Solution
- AI Bot Engine을 최전방에 배치하여 문서 기반의 1차 응답 자동화 구조 설계
identify메서드를 통한 사용자 컨텍스트(ID, 플랜, 주문 이력)의 사전 주입으로 상담원 사이드바 데이터 동기화- Widget의 비동기 로딩(Async Loading) 및 커맨드 큐잉 방식을 적용한 렌더링 블로킹 방지
- Webhook 수신 시 즉시 Redis Queue에 적재하고 Worker 프로세스에서 비동기로 처리하는 Event-Driven 아키텍처 채택
- Exponential Backoff 전략을 적용한 Webhook 재시도 메커니즘으로 데이터 유실 방지 및 시스템 안정성 확보
Impact
- AI Bot을 통한 전체 고객 상담의 70~80% 자동 처리 달성
실천 포인트
- 외부 API Webhook 수신부는 처리 로직과 수신 로직을 분리하여 Fast Response 구조 유지 - 사용자 식별 데이터를 API 레이어에 사전 전달하여 상담원의 컨텍스트 스위칭 비용 최소화 - 서드파티 스크립트 도입 시 Async 로딩 및 큐잉 패턴을 통해 메인 스레드 성능 저하 방지