뷰페이지

인공지능도 인종차별?…“얼굴인식 소프트에어 백인남성 더 정확”

인공지능도 인종차별?…“얼굴인식 소프트에어 백인남성 더 정확”

김지수 기자
입력 2018-02-12 10:51
업데이트 2018-02-12 10:51
  • 글씨 크기 조절
  • 프린트
  • 공유하기
  • 댓글
    14

NYT “에러 발생률 백인 남성 1%, 흑인 여성 35%”

‘피부색이 검을수록 얼굴인식 기능의 에러 발생률이 높아진다’뉴욕타임스(NYT)는 11일 MIT대 미디어랩의 조이 부올라미니 연구원의 최신 논문을 인용해 “현실 세계의 편견이 인공지능(AI)으로까지 번지고 있다”고 보도했다.

부올라미니의 최신 논문에 따르면 사진 속의 사람이 백인일 경우 소프트웨어는 99% 정확하게 맞추지만, 피부색이 어두워질수록 에러율이 올라가며, 특히 피부색이 어두운 여성의 이미지는 최고 35%까지 에러가 발생한 것으로 나타났다.

피부색과 사람의 성별을 구별하는 이 실험은 마이크로소프트, IBM, 중국의 메그비 등 3곳의 인공지능 얼굴인식 기능을 사용해 아프리카 3개국과 북유럽 3개국의 국회의원 얼굴 사진 1천270개 데이터를 대상으로 했다고 한다.

실험에서 백인 남성의 경우 에러 발생률은 3개사 모두 1% 미만이었고, 백인 여성은 7%, 흑인 남성은 최고 12%의 에러율이 나왔지만, 흑인 여성의 경우에는 마이크로소프트가 21%, IBM과 메그비는 거의 35%까지 에러율이 올라갔다.

이런 결과에 대해 IBM 측은 편견 없고 투명한 서비스를 위해 최선을 다하겠다고 말했고, 마이크로소프트도 정확성을 위한 투자를 지속할 것이라고 밝혔다. 그러나 중국에서 온라인 패이, 차량공유 등의 분야에 얼굴인식 기능을 서비스하고 있는 메그비측은 어떤 언급도 하지 않았다고 NYT는 전했다.

NYT는 “현대의 인공지능 분야에서는 데이터가 그 능력을 좌우한다. 다시 말해 AI가 얼마나 똑똑한가는 그것을 훈련시킨 데이터에 달린 것”이라면서 “그러나 오늘날 광범위하게 사용되는 얼굴인식 데이터 세트의 75% 이상이 남성이고, 80% 이상이 백인”이라고 말했다.

데이터 시스템에 흑인 여성 보다 백인 남성이 더 많기 때문에 AI가 흑인 여성을 확인한 것이 더 어렵다는 것이다.

NYT는 “얼굴인식 소프트웨어는 갈수록 많은 기업과 정부기관이 사용하고 있다”면서 “이 소프트웨어가 사회적으로 신뢰할 수 있는 것이 될 수 있도록 AI 시스템의 작동 방법과 어느 지점에서 이것들이 실패하고 있는지를 파악해 하루빨리 대처해야 한다”고 지적했다.

연합뉴스

많이 본 뉴스

의료공백 해법, 지금 선택은?
심각한 의료공백이 이어지고 있습니다. 의대 증원을 강행하는 정부와 정책 백지화를 요구하는 의료계가 ‘강대강’으로 맞서고 있습니다. 현 시점에서 가장 먼저 필요한 것은 무엇일까요?
사회적 협의체를 만들어 대화를 시작한다
의대 정원 증원을 유예하고 대화한다
정부가 전공의 처벌 절차부터 중단한다
의료계가 사직을 유예하고 대화에 나선다
광고삭제
위로