피드로 돌아가기
InfoQInfoQ
AI/ML

AI-Human-in-the-Loop 기반 번역 자동화로 SLA 30분 및 99% 콘텐츠 처리 달성

Lyft Scales Global Localization Using AI and Human-in-the-Loop Review

Leela Kumili2026년 4월 13일2intermediate

Context

글로벌 시장 확장 및 제품 릴리스 속도 증가에 따라 수동 번역 워크플로우가 병목 지점으로 작용. 기존의 수동 프로세스로 인한 번역 소요 시간 증가와 배포 지연 문제 해결 필요.

Technical Solution

  • LLM 기반 Drafter와 Evaluator의 역할 분리를 통한 생성과 검증 로직의 Decoupling 설계
  • TMS(Translation Management System)와 LLM 파이프라인을 병렬로 운영하는 Dual-path Architecture 채택
  • UI 메타데이터 및 지역적 특성을 포함한 Context Injection을 통해 번역 품질과 브랜드 일관성 확보
  • low latency 요구사항에 대응하기 위한 Real-time Translation 전용 분리 아키텍처 구축
  • 소규모 배치 테스트 후 전체 적용하는 Prompt Rollout 전략을 통한 프로덕션 안정성 강화
  • 인간 언어학자의 비동기 검토 후 정답셋을 업데이트하는 Human-in-the-Loop 피드백 루프 구현

Impact

  • 번역 소요 시간을 기존 수일(Days) 단위에서 수분(Minutes) 단위로 단축
  • 전체 사용자 대상 콘텐츠의 약 99%를 배치 파이프라인으로 처리
  • 번역물의 95%가 최소한의 수정만으로 검수 통과
  • 전체 번역의 95%에 대해 30분 이내의 SLA 달성

Key Takeaway

AI의 빠른 생성 능력과 인간의 정밀한 검증 능력을 Dual-path 구조로 결합하여 속도와 품질의 Trade-off를 해결한 사례. 특히 생성과 평가 단계를 분리하여 편향성을 줄이고 오류 탐지율을 높인 설계 패턴이 핵심임.


1. AI 생성 결과물이 Critical한 시스템일 경우 Drafter/Evaluator 구조의 분리 설계 검토

2. 시스템의 정합성 유지를 위해 AI 출력물과 별도의 System of Record(TMS 등)를 병행 운영

3. 배포 리스크 최소화를 위해 신규 Prompt 및 모델 적용 시 단계적 Rollout 전략 수립

4. 데이터 성격(실시간성 vs 정확성)에 따라 파이프라인을 분리하여 Latency와 Context 최적화

원문 읽기