바로가기 메뉴
본문 바로가기
대메뉴 바로가기

TECH M

"모든 것은 데이터로 통한다...빅데이터가 스마트시티 역량 좌우”

스마트시티 핵심 기술

2018-03-19김태환 기자

스마트시티 핵심 기술 '빅데이터'

 스마티시티의 본질도 스마트홈이나 스마트팩토리와 마찬가지로 데이터를 잘 활용하는 것이다. 빅데이터 전략이 중요할 수 밖에 없다. 스마트시티에서 빅데이터는 방대한 데이터 속에서 새로운 가치
를 찾아내고, 이를 활용한 서비스 제공을 통해 시민들의 삶의 질을 향상시킨다. 소규모 데이터에서는 확인할 수 없었던 가치를 확인하고 개선해 나갈 수 있는 공간을 제공한다.

데이터 분석으로 도시 문제 해결 사례 확산

스마트시티에서 빅데이터는 크게 ‘위험 포착’과 ‘서비스 개선’ 등 두가지 업무를 수행할 수 있다. 위험 포착 업무는 도시에서 수집됐던 다양한 자료들의 패턴과 양상을 분석하고, 일정범위를 벗어나는 이상 징후를 선제적으로 파악할 수 있도록 하는데 초점이 맞춰져 있다.

미국 뉴욕 경찰은 1994년부터 IBM과 협력해 ‘콤프스탯(Compstat)’이라는 프로그램을 도입한 뒤 꾸준히 강화시켜나가고 있다. 콤프스탯은 뉴욕에서 발생한 범죄 데이터를 분석해 매일 아침 범죄 발생 가능성이 가장 높은 지역을 확률로 알려준다. 실제 1973년 1946건의 살인사건이 발생하던 뉴욕은 지난 2015년 기준으로는 352건으로 감소했다.

미국 로스앤젤레스(LA)시는 2012년부터 범죄예측 서비스 ‘프레드폴(PredPol)’을 적용했다. 프레드폴은 임의로 설정한 지역의 빅데이터를 분석해 언제 어떤 유형의 범죄가 몇 건 발생할지 예측한다. 경찰은 이를 이용해 효율적으로 인원을 배치해 비용을 줄이고 범죄 예방 효과도 높이게 된다. 프레드폴 도입 이후 LA는 범죄율이 20% 가량 떨어졌다.

서비스 개선의 경우 대규모 데이터 분석을 통한 상황인지, 인공지능 서비스 등이 가능하며 이를 통해 개인화, 지능화 서비스를 제공하는 것이 핵심이다.

서울시가 2013년 도입한 심야버스도 데이터를 활용한 서비스 개선의 대표적인 사례로 꼽힌다. 이를 위해 서울시는 우선 서울 전역을 반경 500m 크기의 1252개 정육각형으로 나눴다. 그리고 야외에서 이동통신 서비스나 전화를 이용하는 소비자들을 ‘잠재 심야 대중교통 이용고객’으로 가정했다.

예를들어, A육각형에서 심야에 통화한 사람이 B육각형에 살고 있다면 A에서 B로 이동하는 수요로 판단했다. 이런 방식으로 분석한 결과 홍대·합정, 동대문, 신림역, 역삼·강남, 시청·종로 등의 지역에 심야 이동 수요가 높은 곳으로 나타났다. 이 같은 심야 이동 수요를 심야버스 노선에 반영해 정확도를 높였다고 서울시는 설명했다.

서울시는 이종 분야들간 정보결합(의료정보, 자동차정보 등)을 통해 새로운 가치를 창출하기 위해 데이터를 수집·공개하고 있다. 성공적인 빅데이터 활용을 위해서는 데이터를 자원화하고 분석·처리하는 기술, 데이터의 의미를 통찰하는 인력 등이 필요하다. 데이터를 개방해 새로운 참여자들을 확보함과 동시에 이들을 통한 추가 데이터를 수집할 수도 있다.

우선 서울시는 ‘정보소통광장’을 통해 내부 처리 문서의 90%를 공개하고 있다. 행정 관련 모든 문서가 여기에 해당된다. ‘빅데이터캠퍼스’도 개설해 데이터를 분석하는 인프라를 지원한다. 입주한 기업체나 방문한 시민을 대상으로 서울시가 수집한 데이터를 공개해 새로운 서비스를 창출하고 있다.

정부 차원의 데이터 정제 역량 업그레이드해야

3월부터 서울시는 ‘디지털시민시장’ 서비스도 오픈한다. 서울시에서 수집하는 200여종의 데이터를 통합해, 실시간으로 데이터들을 확인하는 대시보드를 제공하게 된다.

서울시 안정준 정보기획관 통계데이터담당관은 “2012년부터 데이터를 개방해 지난해까지 4727종 41억 건의 데이터를 개방했다. 올해는 50억 건을 돌파할 것으로 보인다”면서 “공공데이터를 활용해 제작된 민간 앱(지도, 지하철정보)이 155개 등록되는 등 새로운 가치 서비스로 확대되고 있다”고 설명했다.

정부가 스마트시티에서 빅데이터 효율을 극대화해 도시가 직면한 문제들을 해결하기 위해서는 풀어야할 숙제도 많다. 특히 데이터마이닝(DataMining)에 대한 투자를 확대할 필요가 있다는 지적이다.

빅데이터 분석은 반복적이고 시간이 많이 걸리는 검색 계산 분석 작업을 대신하며 전문지식과 통계분석, 패턴인식 등을 적용해 분석결과 중 가치정보만 선별해 제공해 준다. 이를통해 신속하고 효율적인 통찰(Insight) 발굴을 지원한다. 이같은 프로세스가 가능하려면 데이터 정제 역량은 필수다.

다음소프트 반승옥 부사장은 “KTX 서비스 개선을 위한 작업에서 키워드 데이터 80억 건을 분석했는데, 유의미한 자료는 160만건 뿐이고 나머지는 다 부동산 광고였다”면서 “단순히 데이터가 많다고 좋은것은 아니며, 양질의 데이터를 확보하기 위한 정제작업이 필요하다”고 강조했다. 이어 “실제 인공지능 리포트 기반 기술을 활용해 80억 건 가량의 데이터를 분석하면 보고서 30장으로 요약하는 데 10분 밖에 안 걸릴 정도로 효율이 높다”고 덧붙였다.

[테크M = 김태환 기자(kimthin@techm.kr)]

<본 기사는 테크M 제59호(2018년 3월) 기사입니다>