피드로 돌아가기
UK police force presses pause on live facial recognition after study finds racial bias
The RegisterThe Register
AI/ML

UK police force presses pause on live facial recognition after study finds racial bias

Essex Police가 Cambridge University 연구로 발견된 인종 편향(흑인 오식별률 23.8% 샘플에서 거짓 양성 4/6)을 바탕으로 라이브 안면 인식 시스템 배포 일시 중지 후 알고리즘 소프트웨어 업데이트

Lindsay Clark2026년 3월 20일6intermediate

Context

Essex Police의 라이브 안면 인식(LFR) 시스템이 배포 중인 상황에서 Cambridge University 연구진이 188명의 통제된 현장 실험을 통해 통계적 편향을 발견했다. 시스템이 사전 설정된 감시 목록(범죄자, 관심 인물, 실종자)의 인물을 식별할 때 흑인 개인에 대한 거짓 양성 식별이 과도하게 나타났다.

Technical Solution

  • 라이브 안면 인식 배포 일시 중지: 알고리즘 편향 발견 후 운영 중단
  • 알고리즘 소프트웨어 업데이트: 알고리즘 소프트웨어 제공업체와 협력하여 시스템 개선
  • 정책 및 절차 수정: 추가 학술 평가를 바탕으로 운영 정책 및 절차 개정
  • 지속적 모니터링 체계 구축: 모든 결과 모니터링으로 커뮤니티 특정 섹션에 대한 편향 위험 배제

Impact

현장 실험에서 감시 목록 인물의 약 50% 식별 성공률 달성, 거짓 양성 식별 6건 중 4건(66.7%)이 흑인 개인에서 발생(전체 샘플의 23.8% 대비).

Key Takeaway

인공지능 시스템의 배포 전 다양한 인구 통계 그룹에 대한 독립적 학술 검증이 필수적이며, 통계적 편향 발견 시 운영 중단 및 알고리즘 개선을 우선시하는 책임감 있는 AI 거버넌스가 필요하다.


안면 인식, 신용 점수 판정, 채용 등 개인에게 직접 영향을 미치는 AI 시스템 도입 조직에서는 배포 전 최소 188명 이상의 다양한 인구 통계 표본으로 통제된 현장 실험을 수행하고 거짓 양성 오류율을 인구 집단별로 분석하면 배포 후 편향으로 인한 법적·사회적 리스크를 사전에 포착할 수 있다.

원문 읽기