피드로 돌아가기
InfoQInfoQ
AI/ML

QCon London 2026: Ethical AI Is an Engineering Problem

BBVA의 Clara Higuera가 AI 윤리를 공학적 문제로 재정의하여 개발 라이프사이클 전체에 공정성·투명성·보안 검증을 내장하는 실무 접근법 제시

Daniel Dominguez2026년 3월 24일8intermediate

Context

AI 시스템이 대출 승인, 채용, 의료 진단 등 중요한 의사결정 프로세스에 임베드되면서 알고리즘 오류가 실제 피해를 야기하고 있다. 현재 많은 조직이 윤리를 사후 점검이나 거버넌스 차원에서 다루고 있어 배포 후에 편향성 문제를 발견하는 상황이 반복되고 있다.

Technical Solution

  • 훈련 데이터셋 대표성 검증: 모델 학습 전 데이터셋이 실제 영향을 받는 모든 인구 집단을 포함하는지 평가
  • 인구 통계 그룹별 모델 동작 측정: 공정성 평가를 모델 훈련 단계에 통합하여 특정 집단에 대한 체계적 불이익 확인
  • 배포 전 해석 가능성 분석: 모델 결정 과정을 이해할 수 있도록 설명 가능성 검증
  • 대적 공격에 대한 보안 테스트: prompt injection, 모델 추출 같은 새로운 공격 벡터에 대한 안전성 검증
  • 배포 후 모니터링 시스템 구축: 프로덕션 환경에서 예상 외 동작을 감지할 수 있는 관측 기능 확보

Key Takeaway

AI 시스템의 윤리적 속성을 신뢰성, 성능, 보안과 동일한 수준의 공학적 요구사항으로 취급하고, 개발 초기 아키텍처 단계부터 공정성·투명성·보안·지속성·책임성 검증을 삽입하면 배포 후 문제 발견을 사전에 방지할 수 있다.


AI 모델을 개발하는 엔지니어링 팀은 데이터 수집·특성 엔지니어링·모델 아키텍처·평가 지표 정의 단계에서 공정성 평가, 설명 가능성 분석, 대적 공격 테스트, 리소스 효율성 검증을 체크리스트로 삽입하면 fairness, transparency, security 관련 이슈를 배포 전에 조기 발견할 수 있다.

원문 읽기