바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

인공지능의 어두운 비밀 (하)

2017-07-05독점제휴= MIT테크놀로지리뷰

[테크M 독점제휴= MIT테크놀로지리뷰]

미군은 기계학습을 이용해 무인 자동차와 항공기를 만들고, 목표물을 포착하며 수많은 정보들을 걸러내 분석가들에게 도움이 되도록 만드는데 수십 억 달러를 쏟아 붓고 있다.

군사 분야는 다른 어떤 분야보다도 알고리즘이 미지의 영역에 있어서는 안 되는 분야다. 이 때문에 국방성은 기계학습 활용에서 설명 가능성을 매우 중요한 요소라고 파악하고 있다.

미국 방위고등연구계획국(DARPA)의 연구 관리자, 데이비드 거닝은 ‘설명 능력을 가진 인공지능’이란 연구 프로그램을 진행하고 있다. 애플의 시리로 발전한 DARPA의 선행 연구를 진행한 바 있는 이 은발의 전문가는 군대의 수 많은 영역에 자동화가 서서히 파고들고 있다고 말한다.

정보 분석가들은 방대한 양의 감시 데이터에서 유용한 패턴을 구별하는 기계학습 기술을 테스트하고 있다. 수많은 자율주행 자동차와 비행기도 테스트중이다.

 

그러나 실제 병사들은 자신의 행동을 설명하지 못하는 로봇 탱크를 불편하게 생각할 것이며, 분석가 역시 이유를 설명하지 못하는 정보의 사용을 꺼릴 것이다.

거닝은 “기계학습이 여러 오경보를 내는 것은 기계학습의 본질에 가깝다"며 "정보분석가들은 기계학습이 어떻게 그 정보를 추천했는지 이해할 수 있는 추가 정보가 꼭 필요하다”고 말한다.


1960년, 코넬 항공공학연구소에 설치된 광센서의 입력을 처리하는 초기 인공신경망의 사진은 예술가 아담 페리스에게 영감을 줬다. 그는 특정 이미지를 변형해 심층 신경망의 패턴인식 능력을 자극하는 구글 딥드림에 해당 사진을 집어넣었다. 다음의 이미지들은 그렇게 만들어진 신경망의 중간 계층을 이용해 탄생한 것이다.

 

 

지난 3월, DARPA는 거닝의 프로그램에 학계와 산업계의 13개 프로젝트를 선정했다. 이중 몇몇은 워싱턴대학 카를로스 게스트린의 작업에 기반하고 있다. 그와 동료들은 기계학습 결과에 대한 이유를 제공하는 시스템을 개발하고 있다.

이 시스템은 특정 데이터 셋에서 몇 개의 예와, 이들을 선택한 이유를 자동으로 제공한다.

예를 들어 테러리스트에게 온 이메일을 분류한다고 하자. 이 인공지능을 만들려면 학습을 위해 수백만 건의 메시지를 사용해야 할 것이다.

워싱턴대학의 기술을 사용하면 분류된 메시지 중 근거가 되는 특정 키워드를 강조해 표시할 수 있다. 게스트린 연구팀은 이 방식을 이용해 특정 이미지에서 가장 중요한 부분을 강조, 그 이미지를 분류한 이유를 표시하는 방법을 개발했다.

이러한 접근의 단점은 주어지는 설명이 단순화 하다보니 그 과정에서 중요한 정보가 사라질 수 있다는 점.

게스트린은 “우리는 아직 인간과 대화하며 설명할 수 있는 인공지능이라는 거대한 꿈을 이루지 못하고 있다”며 “진정으로 이해할 수 있는 인공지능을 만들려면 긴 시간이 걸릴 것”이라고 내다봤다.

암 진단이나 군사용 주행 같은 특별한 분야에만 이유가 필요한 것은 아니다. 인공지능이 일상에 다양하게 쓰이려면 인공지능의 추론 과정을 알아야 한다.

애플에서 시리 개발팀을 이끄는 톰 그루버는 시리를 더 똑똑하고 능력 있는 가상 비서로 만들기 위해 시리에게 근거를 설명하는 능력을 주려고 노력중이다.

그는 시리의 미래에 대해 구체적인 계획을 말하지는 않았지만, 적어도 시리가 음식점을 추천하면 왜 그 음식점을 추천했는지 사람들이 알고 싶어 할 것이라는 사실은 명백하다. 

애플의 인공지능연구소장이자 카네기멜론대학의 루슬란 살라쿠디노프 교수는 이러한 설명 능력이 인간과 인공지능의 관계를 발전시키는데 핵심이 될 것으로 보고 있다. 그는 “이를 통해 신뢰를 획득할 수 있을 것입니다”라고 말했다.


더 깊은 곳으로

인간의 행동 중에도 자세하게 설명할 수 없는 여러 측면이 있는 것처럼 인공지능 역시 자신의 행동을 모두 다 설명하는 것은 불가능할지 모른다.

“누군가가 당신에게 [자신의 행동에 대해] 합리적인 설명을 한다 해도, 그 설명은 불완전한 것이고 이는 인공지능에게도 마찬가지입니다.”

와이오밍대학 클룬 교수의 말이다.

“어쩌면 자신의 판단에 대해 부분적으로만 합리적 설명을 할 수 있는 것은 지능의 본질적 특성 중 하나일지 모릅니다. 나머지는 그저 본능이나 무의식같이 불가사의한 것이죠.”

정말 그것이 사실이라면, 우리는 어떤 단계에 이르면 인공지능의 판단을 그저 신뢰해야 하거나, 아니면 인공지능을 사용할 수 없게 될 것이다. 또한 그 판단은 사회적 지능을 포함해야 한다.

인간 사회가 서로의 행동에 대한 예측에 바탕을 둔 계약으로 성립되는 것처럼, 우리는 인공지능 역시 우리 사회의 규범에 적합해야 하고 이를 존중하게 만들어야 할 것이다. 만약 우리가 로봇 탱크와 살인 기계를 만든다면, 그들의 판단능력이 인간의 윤리적 기준에 부합하도록 해야 하는 것이다.

이러한 형이상학적 개념을 논의하기 위해 인간의 의식과 마음을 연구하는 저명한 철학자이자 인지과학자인 터프츠대학 다니엘 데닛 교수를 만났다.

의식에 대한 다양한 생각들을 사전적으로 모아 놓은 그의 신작 ‘박테리아에서 바흐까지 다시 박테리아로’의 한 장에서 그는, 지능은 진화과정에서 자연적으로 주인이 방법을 알지 못하는 작업을 수행할 능력을 갖게 된다고 말한다.

“중요한 것은 이 능력을 현명하게 쓰기 위해 어떻게 해야 하는가, 곧 인공지능과 우리 자신에게 어떤 기준을 요구해야 하는가 하는 것이죠.” 전원풍의 대학 캠퍼스에 위치한 어질러진 그의 연구실에서 그가 한 말이다.

그는 설명가능성을 추구하는 다른 이들의 노력에 대해 경고를 덧붙였다.

“어쨌든 우리가 이러한 인공지능 기술을 사용하고 의지하게 된다면 인공지능이 어떻게, 그리고 왜 그런 답을 얻었는지 명확하게 하는데 가능한 한 최선을 다해야 할 것이라고 생각합니다.”

그러나 여기에 완벽한 해답은 없을 가능성이 높다.

따라서 인공지능이 아무리 영리해도 우리는 다른 인간에게 하는 만큼의 조심성을 인공지능의 설명에 대해서도 기울여야 할 것이다.

이와 관련해 데닛은 “인공지능이 자신의 일을 설명하는데 인간보다 더 서툴다면, 그들을 신뢰해서는 안 될 것”이라고 지적했다.


<본 기사는 테크M 제50호(2017년 6월) 기사입니다>