바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

클라우드 올라탄 머신러닝 ‘환상의 짝꿍’

2017-05-17최호섭 디지털 컬럼니스트

 

[테크M = 최호섭 디지털 컬럼니스트] 세상이 인공지능(AI) 이야기로 들썩인다. 우리나라도 ‘독자적인 인공지능 기술을 갖춰야 한다’는 목소리가 커지면서 정부의 지원 정책과 기업들의 원천기술 확보 노력이 이어지고 있다.

하지만 다른 한 편으로 우리는 ‘기술’ 그 자체에만 너무 집중하고 있는 것은 아닐까. 현재 인공지능 기술, 그러니까 입에 주로 오르내리는 신경망 중심의 인공지능 갈래인 머신러닝과 딥러닝에 대한 기술은 이미 일정 수준에 올랐다. 그 어느 때보다 기술 개발이 활발하게 진행됐고, 관련 논문도 쉴 새 없이 쏟아진다.

하지만 인공지능 관련 기술만큼이나 지금 우리에게 필요한 것은 ‘인공지능을 활용하는 기술’이다. 우리가 인공지능을 확대하려는 이유도, 결국 이 기술이 세상 어디에나 쓰일 기술이라고 확신하기 때문이다. 그렇다면 어디에 어떤 용도로 쓰일지에 대한 목표가 잡혀야 ‘바둑 잘 두는 알파고’처럼 기술의 방향을 잡을 수 있다.


머신러닝 성큼, 배경은 클라우드

도입부터 방향성 이야기를 꺼낸 이유는 인공지능 기술이 이미 상당히 상용화가 돼 있기 때문이다. 그것도 어제 오늘, 아니 길게 봐서 알파고가 등장한 2016년 초의 이야기가 아니다. 이 신경망 기술이 제안된 것은 1943년 미국 일리노이의대 정신과 워렌 맥컬록 교수가 사람의 신경망을 컴퓨터로 구현할 수 있을 것 같다는 내용의 논문을 발표하면서부터다. 그리고 한동안 불가능한 일로 여겨지다가 2006년 들어 제프리 힌튼 교수가 딥러닝 기술의 근간을 다시 연구하면서 시장을 움직이게 됐다.

그리고 IT 기업들을 중심으로 관련 기술들이 꾸준히 개발됐고 실제로 갖가지 사례를 만들어냈다. 인공지능이라는 말 대신에 데이터 분석을 비롯한 여러 기술 분야에 적용 가능성이 시험됐다.

그리고 가상화와 클라우드 열풍에 힘입어 지금은 여러 가지 딥러닝 관련 기술이 각 기업들의 클라우드 서비스 중 한 갈래가 됐다. 클라우드 기반 머신러닝 서비스를 갖고 있던 기업들 사이에 알파고에 ‘뒤통수를 맞은 듯하다’는 분위기가 돈 이유도 머신러닝과 딥러닝 기술을 이미 곳곳에 적용했고, 서비스로 판매하고 있었기 때문이다.

결과야 어찌 됐든 알파고 덕분에 머신러닝은 그 자체로 인공지능 기술의 꽃이 됐다. 이 머신러닝 기술은 인공지능 기술 중에서도 기초적인 구조로 꼽힌다. 데이터를 미리 정해 둔 기준, 그러니까 각 모델에 빠르게 맞춰보고, 그 중에서 가장 적절해 보이는 결과물로 분류하고 연결하는 것을 반복하는 기술이다. 두뇌 역할에서 ‘현상 인지’를 맡는 가장 효과적인 방법으로 꼽힌다.

알파고가 바둑을 두는 방법 역시 현재 상황에서 둘 수 있는 바둑의 수를 다 두어보고, 그 안에서 가장 최적의 결과를 얻어낼 수 있는 수를 계산하는 것이다. 가로세로 19줄씩 그어진 바둑판 하나에서 나올 수 있는 경우의 수는 우주의 별보다 많다. 이를 최대한 계산해 가장 효과적인 수를 찾아내는 게 알파고의 역할이다. 문제는 ‘주어진 시간’이다. 시간이 무한하다면 천천히 계산해도 되겠지만 알파고에게 주어진 시간은 사람과 똑같은 조건이었다.

그 동안 바둑 프로그램들이 사람을 이기지 못했던 이유는 같은 시간 동안 컴퓨터들이 계산해내는 경우의 수가 부족했기 때문이다. 알파고는 자체 알고리즘의 효율성을 높여 계산해야 하는 경우의 수를 최대한 줄였고, 동시에 막대한 컴퓨팅 파워를 넣었다.

결국 일반적으로 사람이 바둑을 두는 정도의 시간이면 대등한, 혹은 그 이상의 바둑 실력을 만들어낼 수 있다는 이야기다. 그리고 구글과 딥마인드는 알파고를 CPU 1202개, GPU 176개의 어마어마한 컴퓨터 위에 심었다.

 


머신러닝의 핵심, 컴퓨팅 성능

현실적으로 대형 컴퓨팅 자원이 필요하다는 것이다. 결국 머신러닝의 확산은 가상화, 클라우드 컴퓨팅에서 시작됐다. 그리고 두 가지 이유에서 머신러닝에 데이터센터 기반의 클라우드는 필수다. 컴퓨팅 성능과 효과적인 활용 서비스 때문이다.

머신러닝의 결과는 모델이 얼마나 섬세하게 설계됐는가, 그리고 데이터가 많은 모델을 지나가느냐에 달려 있다. 같은 시스템이라고 해도 학습 방법과 학습량에 따라 전혀 다른 방식으로 작동하는 게 머신러닝이다. 이는 결국 얼마나 많은 데이터를 처리할 수 있느냐에 따라 결과가 결정된다. 막대한 성능을 만들어낼 수 있는 ‘슈퍼컴퓨터’ 급의 컴퓨터가 필요하다. 이게 예전에는 함부로 상상할 수도 없는 일이었지만, 이제는 저렴한 x86 기반의 서버를 묶는 기술이 대중화되면서 그 장벽이 크게 줄어들었다.

이제 데이터센터는 모두 가상화 기술로 묶여 관리되고, 필요에 따라 시스템 자원을 할당해서 쓰는 게 일반화돼 있다. 데이터센터마다 머신러닝을 언급하면서 인공지능 전용 프로세서 등이 적용되고 있다. ‘아마존웹서비스’를 비롯해 마이크로소프트(MS)의 ‘애저’, ‘구글 컴퓨트엔진’이 최근 발표하는 기술들도 대부분 이 머신러닝과 연결된다. 단순히 데이터센터만의 확충을 떠나 이와 관련된 하드웨어(HW), 소프트웨어적 지원도 늘어나고 있다. 머신러닝의 확대가 기정사실화됐기 때문이다.

서비스로서의 인공지능 기술도 중요한 문제다. 기업들이 인공지능 기술을 제공하는 방법은 이용자들이 직접 머신러닝의 구조를 짜서 운영하는 것도 있지만 이미 갖춰져 있는 각각의 서비스를 구체화하려는 목적도 있다. 대표적인 것이 최근 세일즈포스의 ‘아인슈타인 AI’, 그리고 MS의 ‘오피스365’다.

세일즈포스는 클라우드 기반 고객 관리 서비스를 고도화하기 위해 머신러닝 서비스를 접목해 데이터 기반의 분석 서비스를 할 수 있도록 했다. MS 역시 오피스365를 통해 업무 집중도, 자주 연락하는 사람, 근무시간 등을 해석해 주고, 엑셀의 데이터를 분석해 향후 흐름을 분석하는 등 기존 서비스의 가치를 높이는 데에 인공지능을 활용하는 대표적인 예다.

 

>>>

구글의 의도는 아예 텐서플로 전용 프로세서를 만들고, 텐서플로의 가장 효과적인 환경으로

구글 클라우드 서비스를 제공하는 것이다. 알파고 역시 이 TPU를 활용해 연산 성능을 끌어올리고 있다.

 


클라우드의 효과, ‘서비스로서의 AI’

각 기업들은 클라우드 위에서 인공지능 기술을 어떻게 활용하고 있을까? 클라우드 기업은 대부분 딥러닝 그 자체를 서비스로 제공하는 방식과, 기존 서비스를 인공지능으로 고도화하는 방식을 함께 제공하고 있다. HW 기업들 역시 단순한 확장 개념의 클라우드 대신 머신러닝에 최적화된 병렬처리 기술로 데이터센터를 고도화하고 있다.

구글은 2015년 10월 누구나 무료로 쓸 수 있는 머신러닝 솔루션 ‘텐서플로(Tensor Flow)’를 내놓았다. 구글은 이 기술을 세상에 발표하기 훨씬 전에 사진 서비스인 ‘구글 포토’를 통해 실험했던 바 있다. 구글 포토는 사진을 22개 레이어를 통해 분석하는 고도의 머신러닝 기술이다. 텐서플로를 이용해 구글 스스로가 서비스에 적용해 그 가능성을 확인했고, 이를 무료로 공개하면서 이 엔진의 다음을 노린 것이다.

당시 구글은 이 텐서플로를 내놓으면서 ‘스마트폰부터 개인용 컴퓨터, 데이터센터까지 적용할 수 있다’고 발표했다. 하지만 정작 구글은 이를 클라우드로 제공하진 않았다. 당시에는 의아한 부분이 있었지만 지금 되돌아보면 결국 이 텐서플로를 가장 완벽하게 쓸 수 있는 환경으로 구글 컴퓨트엔진을 제공하기 위한 초석이었다.

구글은 이듬해인 2016년 5월 ‘구글I/O’를 통해 텐서플로를 위한 FPGA(Field Programmable Gate Array) 형태의 전용 프로세서 TPU(Tensor Processing Unit)를 발표했다. 머신러닝의 데이터 처리는 고성능 CPU가 아니어도 된다.

특히 GPU처럼 작은 데이터를 반복적으로 처리하는 프로세서의 효과가 크고, 이를 극단적으로 끌어낼 수 있는 것으로 FPGA가 고민되고 있다. 구글의 의도는 아예 텐서플로 전용 프로세서를 만들고, 텐서플로의 가장 효과적인 환경으로 구글 클라우드 서비스를 제공하는 것이다. 알파고 역시 이 TPU를 활용해 연산 성능을 끌어올리고 있다.

인텔도 이 시장을 노리고 있다. 최근 인텔의 방향성은 PC에서 벗어나 데이터센터로 옮겨가고 있다. 그 중심에 머신러닝 데이터센터가 있다. 인텔은 지난해 분산처리에 최적화된 ‘제온 파이’ 프로세서를 발표했고, 알테라를 인수해 FPGA도 개발하고 있다. 인텔은 인공지능 가속 기술을 갖고 있는 너바나시스템즈를 인수한 이후 장기적으로 너바나를 플랫폼으로 HW와 플랫폼 서비스를 제공할 계획이다.

결국 인텔 역시 개인용 컴퓨터나 단독 서버보다도 대형 데이터센터들이 머신러닝 솔루션을 갖추고, 이를 서비스로 제공하는 시장을 내다보고 있기 때문이다. 이 기술들 역시 데이터센터 단에만 머무르는 것이 아니라 클라우드를 통해 자동차, 사물인터넷 등으로 영역을 확장하는 것을 염두에 두고 있다.

MS 역시 클라우드 서비스인 애저 위에 여러가지 머신러닝 서비스를 더하고 있다. 거창하게 인공지능이라고까지는 이야기하지 않지만 이미 오래 전부터 클라우드 기반의 데이터 분석 서비스를 제공했고, 그 기반에는 머신러닝이 들어가 있다.

앞서 이야기한 오피스365의 업무 패턴 분석이나 엑셀 분석 외에도, 파워포인트의 디자인 레이아웃을 제안해주는 기술이나 얼굴을 분석해 나이와 심리상태 등을 읽는 코그니티브(Cognitive) 서비스를 내놓기도 했다.

머신러닝 엔진 자체를 제공해 기계에 생길 수 있는 고장을 미리 처리하는 기술은 이미 잘 알려져 있다. 티센크루프는 이를 통해 안전과 서비스 품질을 높였고, 국내에서도 LG CNS가 애저를 이용한 스마트팩토리 서비스를 개발해 여러 공장에 서비스하고 있다.

머신러닝은 기술이나 솔루션의 관점으로만 바라볼 것이 아니라 서비스 관점으로도 접근할 필요가 있다. 구글이나 MS, 아마존, IBM 등의 대형 기업들이 클라우드 위에서 머신러닝 플랫폼을 제공할 수 있는 근본적인 체력 역시 자체적으로 서비스를 고도화하거나 새로 만들기 위한 목적에서 시작했다. 왜, 그리고 어떻게 만들어야 하는지에 대한 뚜렷한 목적과 동시에 서비스로 제공되는 것이다.

결국 클라우드는 머신러닝 기술 그 자체를 고도화할 수 있는 막대한 컴퓨팅 파워를 제공하는 동시에 이를 서비스 플랫폼으로 만들어 머신러닝이 대중화될 수 있는 토대가 됐다. 반대로 머신러닝 역시 클라우드 컴퓨팅의 근본적인 역할, 그리고 데이터센터의 당위성과 진화의 방향성을 제시하고 있다.

두 서비스가 합쳐진 덕분에 기업들은 더 손쉽게 머신러닝에 접근할 수 있게 됐고, 그 참여가 또 다시 머신러닝의 진화를 이끌어가고 있다. 먼 미래의 이야기인 것만 같던 머신러닝을 눈 앞에 풀어준 것이 바로 클라우드다.

 

 

<본 기사는 테크M 제49호(2017년 5월) 기사입니다>

 

뉴스