바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

어떻게 인공지능에 포함된 편견을 제거할까

2018-01-08독점제휴=MIT테크놀로지리뷰

[테크M 독점제휴=MIT테크놀로지리뷰]

알고리즘은 가석방을 금지하거나 대출을 승인하는 등 사람들의 인생을 바꿀 수 있는 결정을 내린다. 

하버드대의 컴퓨터과학자 신시아 드웍 교수는 인공지능이 공정하게 작동하도록 만드는 방법을 찾고 있다.

"알고리즘 디자이너와 데이터 과학자들이 편견이나 불공정을 이해하기 어려워하는 이유가 무엇일까요? 여성에게 불리한 환경이 있습니다.

2~3년 정도 일하면 승진하는 것을 알고리즘에서 성공이라고 정의했다고 해봅시다. 과거의 데이터를 통해 알고리즘은 여성 채용이 좋은 생각이 아니라고 판단하게 될 것입니다. 

흥미로운 점은 여기서 과거에 누구를 채용했는지가 문제라고 말하는 것이 아니라는 점입니다. 과거의 채용 과정에 전혀 편견이 들어가지 않았다고 해도, 현실적으로 환경이 여성에게 불리하기 때문에 그런 불공정한 상황이 계속될 수 있습니다.

이는 구조적이고 사회에 더 깊이 새겨져 있어 더욱 극복이 어려운 조건입니다.

나는 인공지능과 기계학습이 누구와 누구를 공정하게 대해야 하는 지를 역사적으로 사회학적으로, 심리학적으로 잘 이해하는 사람들과 함께 만들어가야 한다고 믿습니다.

인공지능이 이를 하지 못할 것이라고 말하는 것이 아닙니다. 

하지만 적어도 지금은 아닙니다. 지금의 모델이 옳은지, 이 모델이 이 사회에서 일어나는 일을 정확히 파악하고 있는지를 어떻게 알 수 있을까요? 

우리는 우리가 하는 이야기가 무슨 뜻인지 알아야 합니다. 유명한 말이 있지요. 

“모든 모델은 틀렸고, 그 중 몇몇은 쓸만하다.”

<본 기사는 테크M 제56호(2017년 12월) 기사입니다>