바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

모바일 플랫폼은 인공지능 플랫폼으로 진화할 것이다

2016-06-17한상기 소셜컴퓨팅연구소 소장

2011년 아이폰 4S에는 새로운 기능이 등장했다. 사용자가 음성으로 원하는 것을 요청하면 이를 인식해 폰 내부의 정보를 제공해주거나, 간단한 검색 내용 또는 가벼운 대화를 나눌 수 있는 시리라는 음성 기반 비서가 등장했다.

구글은 음성 인식을 상황 인지와 결합해 구글 나우 서비스로 비서의 능력을 더욱 확장하고, 주도적으로 상황에 대비하거나 사전에 정보를 제공하는 서비스로 대응했다. 애플 역시 사전 대응형인 시리를 소개했는데, 차이는 정보 분석을 서버로 가져가는 것이 아닌 스마트폰 안에서 처리함으로써 프라이버시 우려 문제에 적극 대응했다.

구글 나우 서비스와 애플 시리

(구글 나우 서비스와 애플 시리)


이미지 인식, 음성 인식 등의 인지 기능을 넘어서 웹을 기반으로 하는 다양한 서비스에서 인공 지능 기술은 한 걸음 더 나아가는 서비스를 만들어내고 있다. 구글의 서비스는 최대 40%까지 이미 인공 지능을 이용하고 있고, 마이크로소프트는 18개의 기계 학습 서비스를 제공하고 있다.

1991년부터 시작한 MS의 인공지능 역사

 

 

 

(1991년부터 시작한 MS의 인공지능 역사)


지금은 대부분 모바일 기기에서 얻어지는 데이터를 클라우드 서버로 보내서 처리한 다음 이를 다시 모바일 기기로 제공하는 방식으로 제공하지만 점점 최적화한 기술은 모바일 OS 기반에서 이루어지는 기본 서비스로 내장될 것이다.

자율 주행 자동차는 또 다른 모습의 모바일 기기가 될 것이고, 이미 엔비디아 드라이브와 모빌아이로 무장한 스마트 자동차는 그 자체로 인공 지능 모바일 기기가 된 것으로 볼 수 있다. 자동차 운영 체제는 이미 다양한 인공 지능 기능을 내장할 수밖에 없다.

IBM의 왓슨은 클라우드 기반의 인지 컴퓨팅 플랫폼으로 선언하고 있다. 처음 왓슨이 등장 했을 때, 왓슨이 사용한 컴퓨팅 장비는 냉장고 크기였지만 이제는 피자 박스 크기의 서버에 들어간다. 앞으로 스마트폰 안에 왓슨이 장착된다고 해도 별로 놀라운 일이 아닐 것이다. 우리는 이미 아폴로를 달에 보낼 때 사용한 컴퓨터보다 뛰어난 컴퓨터를 손에 들고 다니고 있기 때문이다.

IBM이 만들고 있는 시냅스 칩은 100만 개의 뉴런과 2억5천6백만 개의 시냅스를 갖고 있다. 최근에 이를 16개의 어레이로 만들어서 로렌스 리버모어 연구소에 공급했다. 여기에는 새로운 프로그래밍 패러다임이 사용된다.
이런 칩이 모바일 기기의 CPU가 되거나 또는 코프로세서가 되는 날이 오면 우리가 지금 대단하게 느끼는 뉴럴 컴퓨팅이 손 안의 기계에서 이루어질 수 있다.

가정용 소셜 로봇을 생각해보자. 이들이 클라우드를 통해서만 많은 판단을 한다면, 네트워크가 불안정할 때, 예기치 못한 위험이나 잘못된 행동이 이루어질 수 있다. 당연히 그 자체로 지능 기능을 발휘할 수 있도록 해야 하기 때문에, 로봇 OS는 기본적으로 인공 지능 OS가 되어야 한다.

플랫폼이라는 개념으로 생각하면, 많은 제 3의 서비스 또는 앱이 이를 바탕으로 개발되고 사용자에게 제공되어야 한다. 구글 어시스턴트가 안드로이드의 기본 기능이 되고, 시리가 iOS 개발자들이 사용하는 기본 기능이 되며, 이미지 인식과 자연어 처리가 기본으로 이용되고, 기본 추론 엔진이 제공되는 상황이 되면, 외부에서 앱을 개발하는 사람들의 창조성은 더 크게 확대될 것이다.

음성인식 기반 구글 홈, 아마존 에코, 비브

 

 

 

(음성인식 기반 구글 홈, 아마존 에코, 비브)


IDC는 현재 인공 지능 기술을 이용해 개발된 소프트웨어 앱이 1% 정도 존재하지만, 2018년에는 50% 정도가 될 것으로 예측했다. 이들이 선택할 플랫폼은 PC가 아니고 모바일일 것이다. 모바일은 단지 사이즈가 작은 것이 아닌 새로운 에코 시스템이기 때문이다.

늘 그래 왔듯이 제품이 등장하면 플랫폼이 그 뒤를 따르게 된다. 지금은 다양한 영역에서 인공 지능 제품이 등장하고 있지만 점차적으로 플랫폼을 중심으로 모여들게 될 것이고, 그 가운데에는 모바일 플랫폼이 있을 것이다.

하버드 경영대학원의 데이빗 요피 교수는 시간이 더 걸릴 것이라고 예상했다. 아직 PC 시대의 OS만큼 유비쿼터스한 수준이 될 수 있는 기술이 없기 때문이다. 그러나 요즘 주요 기업의 움직임을 보면, 오픈 API를 제공하면서 개발자들이 자기 생태계에 머무르게 하면서 플랫폼을 구성하기 위한 단계를 진행하고 있다고 생각한다.

어느 정도 궤도에 들어온 인식 기술은 점차 모바일 운영체제에 통합될 것이다. 다양한 앱들이 각자 나름대로의 인공 지능 기술을 기반으로 발전하고 있지만, 오픈 표준이 만들어지면 이를 기반으로 재정립 될 것이다.

오픈 표준을 기반으로 오픈API가 제공되는 것은 가장 앞선 기술이 아니라 때로는 기업의 전략적 선택을 우선시하고, 모든 인공 지능 앱을 자사의 플랫폼에 묶어 놓기 위한 방식을 선택할 것이기 때문에, 낮은 단계부터 진행되며, 점차 고성능의 기능으로 대체될 것이다. 이는 우리가 그 동안 꾸준히 보아온 진행 방향이다.

그렇다면 모바일 인공 지능 플랫폼은 구글이나 애플에서만 가능할 것인가? 안드로이드는 2003년에 앤디 루빈이 만든 작은 회사였고, iOS는 넥스트에 뿌리를 둔 다윈이라는 오픈 소스에서 시작했다.

스탠포드 출신의 마이크 텅은 구글과 경쟁하겠다는 디프봇(Diffbot)이라는 회사를 세웠고, 모든 인간의 지식을 모아서 데이터의 아마존을 만들겠다고 했다. 비브 역시 새로운 인터랙션을 위한 플랫폼을 만들어 대화를 통해 모든 물체에게 생명을 불어넣겠다는 야망을 선보였다.

비카리우스는 수학적 혁신을 통해 인간 두뇌의 정보 처리를 흉내 내겠다고 한다.

이미 2천 여 개의 인공 지능 스타트업이 존재한다. 이런 새로운 스타트업이 미래의 안드로이드나 iOS를 만들어 낼 수 있으며, 이들이 인수된다 하더라도 그 기술은 모바일 플랫폼의 인공 지능화를 이끌어낼 것이다. 5년 뒤의 내 스마트폰에는 기본적인 인공 지능 기술이 탑재된 버전이 될 것이라는데 아무 의심이 없다. 그것이 우리가 가는 길이기 때문이다.

우리는 이미 아마존 에코가 새로운 생태계를 구축하는 모습과 구글 홈이나 어시스턴트의 등장이 또 다른 앱 생태계를 만들어 내고 있음을 보고 있다. 시리 개발자들이 나와서 만든 비브(Viv)는 대화 기능을 기반으로 새로운 생태계를 위한 플랫폼을 선언했다.

디프봇에 대해 설명중인 마이크 텅

 

 

 

(디프봇에 대해 설명중인 마이크 텅


좀 더 미래에는 새로운 칩이 모바일 기기에 장착되면서 지금보다 수 백배의 성능을 가진 하드웨어를 바탕으로 지금 우리가 얘기하는 인공 지능은 당연시되는 가장 초보적인 기능으로 취급될 것이고, 인지적 기능 외에 감정 인식과 새로운 인터랙션, 숙의적 추론이 가능해지는 기계를 들고 다니거나 우리 주변에서 움직이고 있을 것이다.

모바일 플랫폼이 인공 지능 플랫폼이 된다고 가정하면, 모바일 기기 간의 협업이 어떻게 이루어질 것인 가를 생각해야 한다. 하나의 에이전트(실행자, 행동 주체)로 문제를 푸는 것이 아닌 수십 개 또는 수천 개의 에이전트가 협력해서 문제를 풀어가는 모델이 만들어 지면, 클라우드 기반의 인공 지능 플랫폼은 모바일 인공 지능 플랫폼의 그룹 컴퓨팅과 경쟁할 수 있다.

그 때는 앱을 개발하는 것이 아니라 이들이 어떻게 모여서 협력하고 같이 문제를 풀어 나가는 사회를 만들어 가는 기술이 필요할 것이고, 외부 개발자들은 이런 에이전트들이 만드는 사회에서 보다 더 효율적인 조직과 문제 해결 그룹을 만들어내는 방식을 고민해야 할 것이다.

공동기획