똑똑하고 얄미운 Aedi

인종차별하는 인공지능? 편향되지 않은 데이터셋의 중요성 본문

IT/리뷰

인종차별하는 인공지능? 편향되지 않은 데이터셋의 중요성

Aedi_ 2018. 2. 15. 22:58

인종차별 성차별 하는 인공지능 기술?

최근 MIT의 미디어랩 연구원들은 인공지능 기술 개발과 관련해 의미있는 연구결과를 발표했습니다. 그들의 연구에 따르면 편향된 데이터셋과 알고리즘 생성조건은 인공지능이 편견을 가질 수 있게 만든다고 합니다. 그 근거로 그들은 각 기업들에 만든 얼굴인식 시스템 분석결과를 제시했습니다.

▼MIT 미디어랩의 조이 부오라뮈니(Joy Buolamwini) 연구원은 '젠더 쉐이드(알고리즘에 내재된 편향성 확인)' 프로젝트의 일환으로 Microsoft, IMB, Megvii 社가 만든 얼굴인식 시스템의 정확성을 테스트했습니다. 그녀는 다양한 인종 및 성별로 이루어진 각국 정치인들의 사진 1,270개의 데이터셋을 활용해서 테스트를 진행했습니다.

조이 부오라뮈니


▼그 결과 세개의 회사가 개발한 얼굴인식 프로그램은 모두 흑인보다 백인을, 여성보다 남성을 더 잘 구분할 수 있는 것으로 밝혀졌습니다. 결과만 놓고보면 인공지능이 마치 인종차별과 성차별을 하는 것으로 보여지는 결과입니다. 구체적인 수치를 살펴보면 백인 남성 얼굴 인식의 경우 MS(100%), IBM(99.7%), Megvii(99.2%)로 근소한 차이를 보였지만 흑인 여성얼굴 인식률은 MS(79.2%), Megvii(65.5%), IBM(65.3%)로 아직 미완성된 기술로 보여질 정도로 낮은 인식률을 보였습니다.

얼굴인식 소프트웨어


▼이런 결과가 나온것에 대해 전문가들은 "AI는 학습한 데이터 만큼 똑똑할 뿐이다."라고 설명했는데요. 이는 개발자들이 AI 학습을 위한 데이터셋을 구성할 때 편향되지 않는 데이터를 확보하는 것이 얼마나 중요한지 단적으로 보여주는 것입니다. 물론 개발자들은 인종차별이나 성차별을 할 의도가 없었을 것입니다. 하지만 AI를 학습시킬 때 사용한 데이터셋이 백인남성들에 집중되었기 때문에 이런 결과가 발생하게 된 것 입니다. 따라서 개발자가 인공지능을 학습시킬 때 이런 부분을 신경쓰지 못한다면 인공지능은 의도치 않은 편향성을 가질 수 밖에 없는 것입니다.

조이 부오라뮈니


▼인공지능의 편향성에 대한 지적은 이번이 처음은 아닙니다. 몇년전 구글 포토가 흑인 남성을 '고릴라'로 태그한 사건은 세계적으로 잘 알려진 사건입니다. 당시 구글은 기술적인 오류를 인정하면서 "이번 사건이 발생한데 대해 정말 끔찍하게 생각하며, 진심으로 죄송하게 생각한다." 장기적으로 피부색이 짙은얼굴에 대한 자동인식 알고리즘과 태킹 시스템 개선을 약속하기도 했습니다.

고릴라 얼굴인식

▼하지만 몇년이 지난 지금 MIT의 연구결과를 보면 개발자들의 문제의식은 크게 변하지 않은 것으로 보입니다. 이는 앞으로 큰 문제를 야기할 수 있습니다. 인공지능기술은 앞으로 우리 생활 전반에 걸쳐 다양한 분야에서 활용될 것입니다. 특히 얼굴인식기술같은 경우는 현재도 범죄자 식별 등의 분야에 활용되고 있습니다. 그런데 인공지능이 인종과 성별에 따라 부정확한 판단을 내린다면 엄청난 혼란이 야기될 것입니다.

범죄자 식별


▼그렇기 때문에 AI를 연구하는 기업 & 개발자는 인공지능이 편향되지 않고 정확하고 합리적인 판단을 할 수 있도록 균형잡힌 데이터셋과 알고리즘 기준 설정의 중요성을 인식할 필요가 있습니다.

성우 인공지능

인공지능 웹툰

스마트팜