바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

AI 판단, 다시 고려해 봐야 하는 이유...다양한 AI 편향성 논란

인종편향 보여준 '컴퍼스'부터 사이코패스 AI '노먼'까지

2018-12-08곽예하 기자

  지난 10월 아마존은 2014년부터 비밀리에 개발해온 인공지능(AI) 채용 시스템을 폐기했다고 밝혔다. 프로그램을 테스트해 본 결과 여성차별 문제가 나타나 자체 폐기한 것이다.

로이터통신에 따르면 아마존은 스코틀랜드에 팀을 꾸리고 AI 채용 프로그램을 개발해왔다. 머신러닝을 기반으로 한 500대 컴퓨터가 구직자 지원서를 5만여개 키워드로 분석하는 방식이다.

문제는 개발한지 약 1년이 지난 2015년에 불거졌다. AI가 경력 10년 이상 남성 지원자 서류만 고용할 후보로 제시하기 시작한 것이다. 심지어 ‘여성’이라는 단어가 들어가기만 해도 감점요소로 분류했다.

전문가들은 그동안 IT 기업 지원자 중에 남성이 압도적으로 많았기 때문에, 이런 기존 데이터를 기반으로 한 AI가 ‘남성 편향적’으로 서류를 분류한 것이라고 이유를 설명했다. 실제 프로그램은 지난 10년간 회사가 수집한 이력서 패턴을 익혀 지원자들을 심사했다. 이 과정에서 AI가 남성비율이 큰 IT 업계 현실을 그대로 학습했던 것이다.

 

AI에게 면접 맡겨도 될까

국내에서도 이미 올 상반기부터 몇몇 기업이 채용 과정에 AI를 도입하기 시작했다. IT 솔루션 기업 마이다스아이티가 개발한 AI 채용 솔루션 ‘인에어(inAIR)’가 대표적인 예다.

아마존이 지원서 검토에 AI를 활용했다면, 인에어는 면접과정에 사용하는 AI다. 지원자들이 컴퓨터만 있으면 원하는 시간과 장소에서 면접을 볼 수 있다는 것이 장점이다. 면접은 자기소개와 인성검사, 적성 퀴즈, 심층 면접 순서로 약 60분간 이어진다.

마이다스아이티가 개발한 AI 면접 솔루션 '인에어'는 지원자의 목소리나 시선 등 외적 요소와 내면적 요소를 함께 고려해 판단한다.

마이다스아이티는 인에어가 지원자 외면과 내면을 모두 판단한다고 설명했다. 시각 지능이 지원자 안면에서 감정과 거짓말 여부 등을 판단하고, 음성인식을 통해 목소리 음색 등을 분석한다. 인적성 형태로 제시되는 문제들을 통해 지원자의 문제해결능력이나 업무 적합도를 판단한다. 마이다스아이티에 따르면 현재 LG유플러스, SK브로드밴드, JW중외제약, 한미약품 같은 여러 국내 기업이 채용과정에 인에어를 도입하고 있다.

이처럼 기업이 AI를 채용에 도입하려고 하는 것은 면접 과정에서 면접관 개개인의 편향이 반영되는 것을 막고 AI가 객관적으로 판단할 수 있다고 믿기 때문이다. 최근 연이은 채용 비리로 채용과정에서 투명성과 공정성이 화두에 오르면서 이런 움직임에 불을 지폈다.

하지만 아마존 사례에서도 알 수 있듯 AI가 사람보다 객관적인 판단을 내릴 수 있는지에 대해서는 아직도 논란거리다. AI는 결국 과거 데이터를 기반으로 판단을 내린다. 실제 현장에서 더 뛰어난 성과를 내고 있는 직원 데이터와 비슷한 지원자에게 높은 점수를 매기는 것이다. 이에 입력한 데이터에 따라 AI도 편향성을 지니게 될 수 있다는 우려다.

지난 9월 20일 월스트리트저널(WSJ)도 이런 점을 지적했다. 미국 인사관리 소프트웨어회사 하이어뷰(Hirevue)는 현재 유니레버, 힐튼호텔 같은 50개가 넘는 기업에 AI 면접 서비스를 제공하고 있다. 지원자는 컴퓨터 앞에서 주어진 질문에 대답하고, 저장된 면접 영상을 AI가 평가하는 식이다.

이 과정에서 AI는 지원자 목소리 톤과 자주 사용하는 단어, 미세한 표정을 분석한다. 그리고 이미 해당 기업에서 높은 성과를 내고 있는 사람들 데이터와 비교한다. 이에 대해 이포마 아준와 코넬대 사회학 및 법학 교수는 “표정과 직무 적합성에 대해 명확히 확립된 것이 없다”며 “과학자들은 이러한 AI가 진짜 편견 없이 공정하고 투명한 판단을 내릴 수 있는지 제대로 검토해야 한다”고 말했다.

 

편향된 데이터가 AI 편향성 만들어

AI 기술이 빠른 성장을 보이면서 면접 뿐 아니라 일상의 많은 부분에서 우리도 모르게 알고리즘 결정에 따르는 일이 많아졌다. 특히 자율주행차나 헬스케어 같은 분야처럼 AI 판단이 사람 목숨과 직결될 경우 ‘AI 편향성’은 심각한 문제가 될 수 있다.

올해 초 미국 캘리포니아 버클리대 연구팀은 AI에서 발생하는 이러한 편향성을 3가지 종류로 구분했다. 첫 번째는 AI에게 학습시키기 전에 이미 해당 데이터에 편향성이 존재할 경우다.

한 예로 미국에서 재판에 사용하는 AI인 ‘컴퍼스(COMPAS)’가 있다. 2016년 미국 탐사보도매체 프로퍼블리카(ProPublica)는 위험 평가 툴인 컴퍼스가 백인보다 흑인을 잠재적 범죄자로 잘못 분류할 확률이 2배가량 높다는 사실을 보도했다. 하지만 실제 재범률은 흑인에서 2배 이상 발생하지 않았다. 이는 이미 입력한 데이터에서부터 인종 편향성이 반영돼 있었기 때문이라는 설명이다.

이에 프로퍼블리카가 플로리다주에 사는 1만명을 대상으로 다시 조사한 결과, AI에 올바른 데이터를 입력했을 때 기존과 달리 올바른 판단을 내리는 것으로 나타났다. 이는 즉 사람이 입력하는 데이터에 따라 AI 편향성이 생길 수 있음을 입증하는 결과다.

MIT 미디어랩은 몇 년 전부터 부정적 데이터가 AI에 미칠 수 있는 영향에 대해 연구해왔다. 올해 4월에는 그동안 개발해온 사이코패스 AI ‘노먼(Norman)’을 공개해 경각심을 주기도 했다.

노먼은 알프레드 히치콕 감독의 공포영화 ‘싸이코’에 등장하는 사이코패스 살인마 ‘노먼 베이츠’에서 이름을 따온 AI다. MIT 미디어랩은 편향된 데이터가 머신러닝 알고리즘에 사용됐을 때 어떤 결과를 야기할 수 있는지 보여주기 위해 노먼을 개발했다고 설명했다.

연구팀은 노먼에게 미국 소셜뉴스 사이트 레딧(Reddit)에서 가져온 어둡고 부정적인 이미지 캡션을 학습시켰다. 이런 방식은 어떤 이미지에 대해 자동으로 캡션을 생성해내는 딥러닝 기술에서 주로 사용하는 방법이다.

이후 연구팀은 ‘로르샤흐 잉크 얼룩 검사’를 이용해 일반적인 AI와 노먼을 비교했다. 로르샤흐 검사는 스위스 정신의학자 로르샤흐가 개발한 인격진단검사 도구로, 개인에게 내재돼 있는 정신질환을 밝혀낼 때 주로 사용한다.

검사는 좌우 대칭인 검정 잉크 얼룩 데칼코마니 그림을 보여주고, 이것이 어떻게 보이는가를 묻는 방식으로 진행한다. 결과는 놀라웠다.

MIT 미디어랩이 개발한 사이코패스 AI '노먼'은 ‘로르샤흐 잉크 얼룩 검사’에서 모든 얼룩에 대해 부정적인 대답을 보였다 (노먼이 분석한 결과(왼쪽)와 일반적인 AI가 분석한 결과. 출처: MIT 미디어랩 홈페이지)

노먼은 모든 얼룩에 대해 총, 자살, 죽음 같이 부정적으로 표현했다. 예를 들어 일반적인 AI가 “나뭇가지에 새들이 앉아 있다”고 표현한 첫 번째 얼룩에 대해 노먼은 “전기에 감전돼 죽은 사람”이라고 표현했다. 또 일반 AI가 “꽃이 든 화병”이라고 표현한 두 번째 얼룩에 대해서는 “총에 맞아 죽은 사람”이라고 말했다. 이는 MIT 미디어랩 연구진이 실제 사람 죽음이 담긴 이미지가 아닌 사진을 설명하는 ‘캡션’으로만 학습시킨 결과였다.

버클리 연구팀이 말하는 두 번째 AI 편향성은 ‘기술적 편향성’이다. 이는 AI를 구동하는 툴과 알고리즘에 의한 것이다. 지난 2016년 플로리다주 윌리스톤 지역에서 발생한 ‘테슬라 모델 S’ 사고가 대표적인 예다.

2016년 미국 플로리다주에서 발생한 '테슬라 모델 S'의 자율주행 사고는 AI의 기술적편향을 보여주는 대표적인 예다.

당시 테슬라 모델 S를 운전하던 운전자는 자율주행기능인 ‘오토파일럿’ 상태에서 견인차와 충돌해 사망했다. 올해 3월 캘리포니아 주에서는 ‘테슬라 모델X’ 운전자가 오토파일럿 모드로 달리다 도로 분리대를 박고 사망하기도 했다. 2016년 사고 당시 테슬라는 “운전자와 오토파일럿 모두 하늘의 밝은 빛 때문에 견인차의 흰색 부분을 인지하지 못했고, 브레이크를 밟지 못한 것”이라고 해명했다.

마지막 AI 편향성은 사람과 AI가 소통하는 과정에서 발생하는 ‘새로운 편향’이다. 새로운 편향은 실제 사람이 AI를 사용하고 있을 때만 나타난다. 이는 새로운 지식이 발견되거나 입력한 데이터와 사용자 의견이 일치하지 않을 때 발생할 수 있다.

한 예로 올해 5월, 평범한 미국 가정집에서 부부가 나눴던 사적인 대화가 아마존 AI스피커 에코에 녹음돼 지인에게 이메일로 전달된 사건이 있다. 당시 아마존은 “에코의 음성인식기능이 부부 대화 중 몇 개 단어를 잘못 이해해 발생한 것”이라고 설명했다.

이처럼 AI에서 발생하는 여러 편향성에 대해 전문가들은 “아직은 구체적인 해결 방법을 찾기엔 이른 시기”라는 의견을 보이고 있다. 하지만 AI를 창조하는 사람에게 가장 큰 책임이 있는 것은 모두가 동의하는 사실이다.

우리가 편향된 사고방식에서 자유로울 수 없는 이상 AI 또한 마찬가지일 것이다. 현재로써는 AI도 편향성을 가질 수 있음을 인정하고, 이에 맞는 정책과 윤리 규범을 만들어 나가는 것이 최선이 아닐까.

 

[테크M = 곽예하 기자(yeha1798@techm.kr)]