바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

남성 편향적 인공지능의 위험

2018-01-03독점제휴=MIT테크놀로지리뷰

[테크M 독점제휴=MIT테크놀로지리뷰]

기업의 인공지능 활용을 돕는 스타트업 코그니션X의 공동창업자인 타비타 골드스텁은 다양성 확대가 더 나은 결과물을 만들어낸다고 말한다.

인공지능의 핵심요소는 주어진 목표에 대해 그 목표를 달성하는 방법을 찾는 능력이다. 오늘날 인공지능의 경우 그들이 어떻게 그 목표를 달성했는지 알기 매우 어려운 경우가 종종 있다.

인공지능을 만드는 이가 자신도 모르는 편견을 가지고 있을 경우 그 인공지능이 어떤 편견을 갖고 있음을 사람들은 알아채지 못할 수 있고, 그 결과는 여성에게 매우 해로울 수 있다. 또한 어떻게 그런 일이 일어나게 되었는지 파악하는 것도 어렵다.

기존 기술들을 활용할 때는 무슨 일이 일어나고 있는지 사람들이 파악할 수 있었다.

여성이 교통사고에서 사망하는 이유는 자동차 충돌 테스트에 쓰이는 마네킹이 여성이 아니라 남성의 모양이기 때문이다. 인공지능 기술 또한 신약 개발이나 자율주행차처럼 삶과 죽음을 결정하는 상황에 쓰일 수 있다. 

오늘날 인공지능 중에도 성차별적 요소의 예를 말할 수 있다.

구글은 여성보다 남성에게 고소득 취업 광고를 더 많이 보여준다. 여성의 대출 신청이나 부동산 담보대출, 보험 신청이 거부되는 상황들 또한 생각할 수 있을 것이다. 

인공지능이 세상을 해롭게 만들 것이라거나 킬러 로봇을 말하는 것이 아니다. 여성에게 부정적 영향을 미칠 수 있는 특정한 응용 사례를 말하는 것이다.

이는 인공지능의 문제가 아니라 인공지능의 발전에 따라 생기는 부가적인 문제이다.

우리의 무의식적인 성차별주의, 혹은 무의식적인 인종주의가 우리가 만드는 인공지능에 포함될지 모른다고 말하는 것이다.

어떻게 인공지능을 개발하는 모든 이들이 이 문제를 생각하게 할 수 있을까?

소비자들이 윤리적인 인공지능을 요구해야 한다. 이를 성차별의 문제가 아닌 실제적이고 근본적인 제품의 문제로 생각하는 사람들이 아직 충분하지 않다.

<본 기사는 테크M 제56호(2017년 12월) 기사입니다>