구글I/O 2014 리뷰 … 구글, 상황인지 시대의 개막을 알리다

<2014 구글I/O 키노트 발표를 하는 순다 피차이 수석부사장 (사진 : the Verge)>

어제(아니 오늘 새벽) 구글 I/O를 생중계로 봤다.
월드컵팀에 파견 나와 있어서 보스니아-이란 전을 봐야 하는데 제치고 구글I/O를 생중계 시청. 구글I/O는 애플 WWDC처럼 열광적이지 않고 화려하지도 않지만 새로운 서비스, 제품의 출시 뉴스 뿐 아니라 `테크놀로지의 오늘’을 그대로 보여주는 행사이기 때문에 꼭 챙겨봐야 한다. 지난해에는 현장에서 봐서 느낌은 모스콘 센터에 있는 것 같았다. 구글I/O 2014를 나의 방식으로 해석해본다.

1. 상황인지 시대의 개막을 알리다

지난해(2013년) 구글I/O에서 구글은 `구글 글라스’ `구글TV’ `구글Q’ 등과 같은 새 디바이스가 아닌 검색, 구글맵, 구글플러스 등을 진화시킨 새로운 서비스를 선보였다. 2012년에 충격적인 이벤트(하늘에서 세르게이 브린이 내려와 구글 글라스를 공개하는 장면)가 있어서 인지 새로운 무엇이 나올 것이다라고 잔뜩 기대가 많았다.
하지만 구글은 지난해부터 `화려함’ 대신 서비스 본질에 가까운 발표를 하기 시작했다. CEO가 에릭 슈미트에서 창업자 레리 페이지로 바뀌면서 구글은 테크놀로지 회사로서 기본을 강조하기 시작한 것이다.

지난해 발표의 주인공은 구글의 핵심 기술인 `머신러닝(Machine Learning)’이었다. 머신러닝이란 데이터를 쌓아 기계가 스스로 생각, 판단할 수 있게 하는 방법이다. 지능을 갖춘 소프트웨어가 스스로 판단해 이용자에게 서비스를 제공한다. 구글이 개인 맞춤형 검색인 `구글 나우’서비스를 하고 알아서 잘 나온 사진을 뽑아주고 연말에는 올해의 하이라이트라며 이용자 개인의 1년 이벤트를 정리해주는 것도 구글이 세계 최강의 `머신러닝’ 기술을 보유하고 있기 때문이다.

구글은 검색엔진 회사였다. PC 시대 검색은 앉아서 이용자가 찾기 원하는 단어를 입력하면 구글은 검색엔진을 돌려 최적의 결과를 보여준다. 모바일로 넘어오면서 검색엔진의 역할이 달라지기 시작했다. 모바일 단말기는 PC에 비해 작고 자판 입력이 불편하다. 이용자들이 이 상황에서 무엇을 검색할지 미리 알고 보여줘야 한다. 아니면 말로 입력하면 결과를 보여줘야 한다.
이 것이 가능한 이유도 `모바일’ 이기 때문이다. 모바일 기기에 내장된 10개가 넘는 센서는 이용자가 언제, 어디에 있는지(장소), 심지어 누구와 있는지, 어떤 상황에 처해 있는지도 알 수 있다. 이 같은 이용자 정보를 취합해 서비스를 `알아서’ 제공해야 만족도가 높고 이용률은 높아진다.

그래서 구글은 올해 I/O에서 머신러닝을 진화시켜 `상황 인지(Contextual Aware)’ 컴퓨팅을 선보였다. 상황인지란 사용자가 처한 상황을 인지하고 사용자가 원하는 정보를 원하는 형태로 제공하는 시스템을 말한다. 구글의 웨어러블 기기 운영체제(OS)인 `안드로이드 웨어’는 이 같은 상황인지 컴퓨팅을 기반으로 하고 있다. 안드로이드 웨어를 내장한 기기를 통해 이용자 주변의 상황을 인지하고 이에 맞는 서비스를 제공해주겠다는 것이다. 주머니 속이나 가방에 담겨 있는 스마트폰이 서버 역할을 하고 손목에 찬 시계가 정보를 수집하는 센서와 스크린 역할을 동시에 하게 된다.

DSC_3687

“오케이 구글(OK Google)”은 이용자와 구글 기반 컴퓨터와 대화를 시작하는 주문이다. PC, 스마트폰, 스마트 와치에서 “오케이 구글”이라고 말한 다음 교통 상황, 문자 보내기 등을 말로 물어하면 처리해낼 수 있다. 날씨도 말해주고 검색도 해준다.

이날 I/O 발표를 주도한 순다 피차이(Sundar Pichai) 수석 부사장은 “안드로이드 웨어는 안드로이드 스마트폰의 동반자다. 우리는 이런 스크린의 끊김없는 경험을 원한다. 우리는 모든 상황이 인지되고 목소리가 내장된 것을 만들어 낼 것이다”고 말했다.

구글은 이날 `안드로이드 웨어’ 외에도 `안드로이드 오토’ `안드로이드TV’도 공개했다. 이는 안드로이드 스크린의 확장이라고 봐도 되지만 구글이 이용자의 상황을 인지해서 집에서도, 차에서도 그 `상황’에 맞는 정보를 제공해주겠다는 의지의 표현으로 봐야 한다.

언론에서는 새로운 디바이스에 눈을 돌리지만 진짜 눈여겨볼 것은 `BLE 주변기기 모드(Peripheral Mode)’ 기능이었다. 안드로이드 디바이스는 이제 BLE 주변기기 모드(Bluetooth Low Energy peripheral mode)로 동작할 수 있다. 이 기능을 통해 자신의 존재를 주변으로 전송할 수 있다. 만보계나 건강관리 앱을 만들어 다른 BLE 장치로 관련 데이터를 전송할 수 있게 됐다.

이날 공개한 멀티스크린에 대응하는 `머티리얼(material) 디자인’도 주목할 필요가 있다. 다양한 플랫폼과 기기를 아우르며 비주얼, 동작, 상호작용을 포함하는 포괄적인 새로운 디자인 언어다. 유연한 반응형(Responsive) UI는 상황인지 컴퓨팅의 대세가 될 가능성이 높다.

구글 뿐만 아니라 애플, 마이크로소프트, 페이스북, 야후, 퀄컴 등 플랫폼을 지향하는 기술 기반 기업들은 모두 이 방향으로 가게 될 것이다.

머신 러닝과 상황 인지 컴퓨팅을 기반으로 구글은 하드웨어과 로봇으로 확장하려 한다. 이 모든 것이 `인공지능(A.I)’으로 가는 길이다.

2014 구글 I/O에서 재미있는 해프닝이 있었는데 발표 중간에 시위자가 “당신들은 사람들을 죽이는 전체주의 회사에서 일하는 것이야(You all work for a totalitaran company that builds machines that kill people)”라며 소리를 질렀다.

순간 … “아 … 이 사람 미래에서 보낸 사람일지 모른다”는 생각이 들었다.

이 시위자가 훗날에 `예언가’로 둔갑하거나 10~20년 후에 과거의 모습(2014년)을 그린 영화의 한 장면에 나올 것이라는 생각도 스쳤다. (계속)

DSC_4060
<키노트 중간에 “당신들은 사람들을 죽이는 전체주의 회사에서 일하는 것이야(You all work for a totalitaran company that builds machines that kill people)!”라고 소리치는 한 참석자…. 미래에서 보낸 사람일까?>

<이어질 글>

2. 삼성 기어 라이브 어떻게 볼 것인가.
-삼성의 선택, 전략인가 한계인가.

3. LG의 구글 올인
-구글과 전방위적으로 협력한 LG, 경험을 내제화할 수 있을까.

4. 2014 구글과 애플, 아마존이 밝힌 오늘과 미래

글 : 손재권
출처 : http://goo.gl/Mz1VGv

%d bloggers like this: