바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

“인공지능 장·단점 정확히 알아야”

2016-09-07도강호 기자

토비 왈시 뉴사우스웨일즈대 교수

(토비 왈시 뉴사우스웨일즈대 교수)

 

“인공지능은 위험이 따르는 만큼 장점도 많은 기술이다. 장점을 쟁취하고 위험을 최소화하는 방법을 찾아야 한다.”

토비 왈시 오스트레일리아 뉴사우스웨일즈대 교수는 인공지능을 막연한 두려움이 아닌 객관적인 시각으로 바라봐야 한다고 지적했다.

왈시 교수는 오스트레일리아 과학회 펠로우, 세계인공지능학회 펠로우 등에 선출될 정도로 인공지능 연구에 공헌한 업적을 인정받고 있다. 2013년에는 독일의 알렉산더 폰 훔볼트 재단이 국제적으로 뛰어난 연구업적을 남긴 학자에게 수여하는 훔볼트 연구상을 받기도 했다.

왈시 교수에 따르면, 인공지능 자체는 우려의 대상이 아니다. 인공지능이 바둑이나 질병 진단과 같은 특정한 문제에서 인간보다 뛰어난 모습을 보일 수 있다. 하지만 인공지능은 인간을 정복하거나 새로운 문제에 도전하는 것과 같은 지각 능력이나 목표 의식을 갖지는 못한다. 인공지능이 스스로 인간의 통제를 벗어나는 일은 없을 것이라는 말이다.

물론 새로운 수식을 만드는 인공지능, 새로운 프로그램을 만드는 인공지능도 존재한다. 인공지능이 인간보다 창의적인 활동을 하는 경우도 있다. 하지만 왈시 교수는 “인간의 지적 경계 내부에서 빈 공간을 채우는 작은 혁신일 뿐, 새로운 지적 영역을 개척하는 창의적 활동은 아니다”라고 평가했다. 인공지능이 인간의 일자리를 대체하는 문제는 있겠지만, 인간이 프로그래밍한 범주 안에서 일어나는 일이다.

이렇게 인공지능 자체의 문제는 제한되더라도 인공지능이 결정을 내리고 그 결정이 행동으로 이어질 때는 위험성이 존재한다. 인공지능의 결정이 실제 행동으로 영향을 주는 상황에서는 인공지능을 안전하고 조심스럽게 이용해야 한다. 최근 사고가 발생한 테슬라의 자율주행 기능과 같이 불완전한 인공지능을 사용하면 인간의 생명을 위협하는 문제가 발생할 수 있다.

왈시 교수는 “현재 테슬라의 자율주행 기능 개발에는 무리가 많고, 안전하게 개발됐는지 확실하지 않기 때문에 완전한 자율주행 자동차를 만들지 못한다면 하지 않는 것이 옳다”고 말했다.

비행기를 개발하는 것과 같이 조심해야 하고, 국가나 사회의 개입도 필요하다는 것이다. 특히 “실리콘밸리 문화는 빠르게 제품이나 서비스를 출시하고 테스트를 통해 개선하는데 자율주행과 같은 인공지능은 그래선 안 된다”고 지적했다.

왈시 교수는 인공지능을 이용해 자율무기를 만드는 것에도 반대했다. 왈시 교수는 UN에서 자율무기 개발을 제재하도록 하는 활동도 펴나가고 있다. 왈시 교수는 “이는 윤리적 문제로 사람의 목숨을 빼앗는 것은 그 자체로 문제”라며 “쉽고 빠르게 사람을 죽이는 무기를 만드는 것, 기계가 사람을 죽일지를 결정하는 것은 윤리적으로 더 큰 문제”라고 지적했다.

인공지능이 발전하면 자연스럽게 자율무기가 개발될 수 있다. 그럼에도 불구하고 왈시 교수는 “인공지능 연구는 계속해야 한다”고 말했다. 인공지능은 경제적 이득을 준다든지, 새로운 가능성을 열어준다든지, 인간 사회의 문제에 많은 해결책을 제시할 것이기 때문이다.

왈시 교수는 “인공지능이 제시한 기회 가운데 어떤 선택을 할지는 우리 스스로가 정하는 것이고, 우리에게 가장 좋은 방법을 찾아야 한다”고 강조했다.

[테크M = 도강호 기자(gangdogi@techm.kr)]

<본 기사는 테크M 제41호(2016년9월) 기사입니다>