피드로 돌아가기
The Open Medical-LLM Leaderboard: Benchmarking Large Language Models in Healthcare
Hugging Face BlogHugging Face Blog
AI/ML

Open Life Science AI가 의료 LLM 벤치마킹 플랫폼을 구축해 MedQA, MedMCQA, PubMedQA 등 5개 의료 데이터셋으로 의료 도메인 LLM 신뢰성 검증 체계 마련

The Open Medical-LLM Leaderboard: Benchmarking Large Language Models in Healthcare

2024년 4월 19일8intermediate

Context

GPT-3, GPT-4 등의 LLM이 의료 분야에서 높은 잠재력을 보이고 있으나, 의료 도메인의 오류는 환자 치료 결과에 직접적인 영향을 미친다. 예를 들어 GPT-3는 임신한 환자에게 금기인 tetracycline을 잘못 추천했으며, 이는 태아의 골 성장 문제를 야기할 수 있다. 의료 LLM의 정확성과 신뢰성을 평가할 표준화된 벤치마킹 방법이 부재했다.

Technical Solution

  • MedQA 데이터셋 통합: USMLE(미국 의료면허시험)의 11,450개 개발 문항 + 1,273개 테스트 문항 (4~5개 선택지)
  • MedMCQA 데이터셋 통합: 인도 의료 입시 기출문제 187,000개 + 6,100개 테스트 문항 (2.4k 의료 주제, 21개 의학 과목)
  • PubMedQA 데이터셋 통합: PubMed 초록 기반 폐쇄형 QA 1,000쌍 (500개 개발/500개 테스트, yes/no/maybe 형식)
  • MMLU 의료 부분집합 통합: Clinical Knowledge(265문항), Medical Genetics(100문항), Anatomy(135문항), Professional Medicine(272문항), College Biology(144문항), College Medicine(173문항)
  • 정확도(Accuracy) 메트릭으로 평가: 각 의료 QA 데이터셋에서 LLM이 제시한 정답 비율 측정

Key Takeaway

의료 도메인처럼 오류의 실제 영향이 심각한 분야에서는 일반 벤치마크가 아닌 도메인 특화 데이터셋과 평가 체계가 필수적이며, 표준화된 리더보드를 통해 모델 간 신뢰성 비교와 지속적 개선을 추진할 수 있다.


의료, 법률, 금융 등 고위험 도메인에서 LLM을 도입하려는 조직은 해당 분야의 특수한 특성을 반영한 벤치마크 데이터셋(예: 면허시험 문제, 실제 사례 데이터)을 구성하고 정확도와 오류 분석을 병행해야 실제 운영 환경에서의 신뢰성을 확보할 수 있다.

원문 읽기