바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

구글, "편견 없는 AI 만들기 위해 '머신러닝의 공정성 추구"

2019-06-26김지현 인턴기자

베키 화이트 구글 인공지능 리서치 프로그램 매니저가 구글 AI 포럼에서 화상통화를 이용해 발표하고 있다.

인공지능(AI)은 사람의 지능을 본 딴 컴퓨터 프로그램이다. 사람처럼 생각하고 판단하는 AI는 현재 농업을 비롯해 여러 산업에 활용되면서 점점 더 활용 범위를 넓혀가고 있다. 하지만 이 AI가 편향적으로 정보를 분류하고 차별적으로 상황을 판단한다면 어떻게 될까. 구글은 발전하는 AI에 무심코 들어있는 ‘편향성’을 조심하고, 이를 개선하기 위해 노력해야한다고 강조했다.

구글코리아가 25일 서울 강남파이낸스센터에서 ‘AI 혁신과 머신러닝의 공정성’을 주제로 한 구글 AI 포럼을 열었다. 발표자인 베키 화이트 구글 인공지능 리서치 프로그램 매니저는 먼저 “모든 사람들이 구글 플랫폼을 사용할 수 있게 만드는 것이 우리의 목표”라며 “그만큼 시스템을 더욱 더 공정하게 만들어야 한다”고 말했다. 이어 그는 “이를 위해 머신러닝(Machine Learning)은 공정성(Fairness)을 가져야 한다”고 강조했다.

구글에 따르면 2011년 전까지 미국은 여성 체형 변이를 의무적으로 사용하지 않았다. 이에 남성과 여성이 같은 사고가 났어도 여성 중상자가 더 많이 나왔다. 또 과거 사용했던 컬러 필름은 보정할 때 백인을 대상으로 프로그램을 만들어 유색인종이나 피부톤이 어두운 사람 사진은 왜곡됐다.

또 구글이 2014년과 2016년 미국 영화 100편을 중심으로 남성 출연자들의 대사 분량을 봤더니 여성에 비해 2배 정도 많았다. 이에 베키 화이트는 “앞선 예가 의도적인 것이 아니었을지라도 기술은 앞으로 이런 차별과 편향성이 사람에게 영향을 미치는 걸 방지하는 데 활용해야 한다”고 강조했다.

베키 화이트는 “구글은 AI 기술 개발에 불공정한 편견을 넣거나 강화하지 않을 것”이라며 그 예로 구글 번역을 들었다. 그는 “최근 구글 번역은 성적 편향성을 줄이는 데 상당한 성과를 냈다"고 강조했다. 현재 구글은 머신러닝 기술에 공정성을 높이고 편견을 줄이기 위해 구글 번역 웹사이트에 성중립적인 단어의 번역문을 여성형과 남성형, 두 가지로 제공하고 있다.

 

여성형 또는 남성형으로만 편향된 채로 번역된 단어들.

그 전에는 번역할 단어나 문장이 모두 남성 또는 여성형을 취할 수 있더라도 번역문은 하나의 버전으로만 제공됐다. 예로 ‘힘센(strong)’이나 '장의사(undertaker)' 같은 단어는 남성형으로 ‘간호사(nurse)'와 '아름다운(beautiful)' 같은 단어는 여성형으로 번역되는 경향이 있었다. 현재는 영어를 프랑스어와 이탈리아어, 포르투칼어, 스페인어로 번역할 때 ’외과의사(surgeon)' 같은 단어가 여성과 남성형 두 가지로 번역된다. 또 터키어를 영어로 번역할 때도 구문이나 문장이 두 개 버전으로 번역된다.

앞으로 구글은 이처럼 성별에 따른 번역을 제공하는 기능을 더 많은 언어로 확대할 예정이다. 또 안드로이드와 iOS 앱 등 다른 구글 번역 플랫폼에도 해당 기능을 출시하고, 텍스트 자동 완성과 같은 기능에도 성 편견을 없애기 위해 노력할 예정이다.

순다 피차이 구글 CEO는 “머신러닝에 적용하는 단 하나의 ‘정확한’ 모델이 없는 것처럼 머신러닝도 어떤 상황에서든 공정함을 보장할 수 있는 단 한 가지 방법은 없다”고 말했다. 하지만 그는 “연구자와 개발자가 다양한 접근 방법을 활용해 반복적이며, 점진적으로 이를 개선해 나가야 한다”고 말했다.

베키 매니저 또한 "편향성을 없애고 다양한 시각을 반영하는 머신러닝 알고리즘 시스템을 개발하겠다"라며 "기술과 활용 방식을 향상시키기 위해 구글은 앞으로 연구 내용을 지속적으로 공유할 예정"이라고 밝혔다.

 

김지현 테크M 인턴기자 jihyusports@techm.kr