바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

인공지능 윤리 가이드라인 나온다

미래부, 9월 경 지능정보사회 윤리 규범 가이드라인 발표

2017-04-13강진규 기자

인공지능(AI) 기술 발전에 따른 사회적 문제 예방을 위해 윤리 가이드라인이 만들어진다.

13일 정부 관계자들에 따르면, 미래창조과학부와 한국정보화진흥원이 이르면 오는 9월 지능정보사회 윤리 규범 가이드라인을 선보일 예정이다.

한국정보화진흥원 관계자는 “지난해 발표한 지능정보사회 중장기 종합대책의 일환으로 윤리 가이드라인을 만드는 작업을 하고 있다”며 “전문가 그룹을 구성해 논의를 하고 있는 단계로 실태조사, 인식조사 후 가이드라인을 만드는데까지 약 4개월이 걸릴 것으로 생각한다”고 말했다.

그동안 AI 기술은 인간을 넘어서는데 한계가 있다고 인식돼 왔다. 하지만 최근 수년 간 AI 기술이 급격히 발전하고 있다. 2016년 3월 구글 AI 알파고와 이세돌 9단의 바둑 대결에서 AI가 압도적인 우세로 승리를 거뒀다. 또 AI는 다양한 부분에 활용되는 추세다. 병원에서 진단에 활용되고 있으며 사람 대신 상담을 해주는 챗봇 서비스도 나오고 있다. 인공지능이 적용된 로봇, 드론 등을 개발하려는 시도도 이어지고 있다.

하지만 AI 사용이 가져올 사회적 문제를 우려하는 목소리도 높다. AI를 범죄에 악용하거나 윤리 의식이 없는 AI가 사고를 일으킬 수 있다는 것이다. AI가 각종 서비스에 활용되면서 책임 소재 문제도 부각되고 있다.

이에 따라 규율을 만들고자 하는 움직임도 나타나고 있다. 지난해 9월 외신들은 구글, 페이스북, 아마존, IBM, 마이크로소프트(MS) 등이 AI 분야에 대한 연구와 미래 기술표준 마련 등을 위해 파트너십을 구축했다고 보도했다. 외신들에 따르면, 이 동맹은 AI 분야의 연구, 정책 제언과 윤리, 공정성, 프라이버시 등에 대한 출판물 발간, 그리고 인간과 AI의 협력 등을 수행하기 위해 결성됐다.

지난 1월에는 유럽의회가 AI 로봇의 법적 지위를 '전자 인간'으로 규정하는 결의안을 통과시켰다. 유럽의회는 AI 로봇의 정의를 명확히 하고 AI 로봇이 인간에 도움을 주는 존재에 머물러야 한다는 것을 명확히 했다. 또 2월에는 일본 인공지능학회 이사회가 AI 윤리 지침을 만들었다. 지침에는 인간 연구자가 갖춰야 할 윤리성을 AI도 똑같이 준수해야 한다고 내용이 담겼다.

미래부와 정보화진흥원은 4개월 동안 해외 주요 선진국 사례와 국내 분야별 사례를 조사할 계획이다. 또 전문가들을 대상으로 지능정보기술 공급자의 책임 윤리와 관련된 인식을 조사한다. 일반 국민을 대상으로도 지능정보기술 이용에 따른 인식을 조사한다. 정부는 인식 조사 결과를 바탕으로 AI 공급자, 이용자의 책임을 명확히 하고 AI와 관련해 해서는 안 되는 것들을 규정할 것으로 보인다.

정부는 9월 공급자 및 이용자 대상의 지능정보사회 윤리 가이드라인(안)을 공개할 것으로 예상된다. 정부는 가이드라인과 지능정보사회 윤리헌장(안)도 함께 준비하고 있어 향후 헌장도 만들어질 것으로 보인다.

[테크M = 강진규 기자(viper@techm.kr)]