인공지능과 불쾌한 골짜기

from Wikipedia.org
from Wikipedia.org

1970년 일본의 로봇공학자인 모리 마사히로(Mori Masahiro)는 로봇이 사람에 가까와지면 가까와질수록 사람들이 불안하고 놀라는 반응을 가진다는 가설을 제시한다. 그는 이를 “불쾌한 골짜기(uncanny valley)”라고 표현을 했는데, 이 문제를 해결하기 위해서 모리 박사는 처음부터 너무 인간하고 똑같게 만들기 보다 인간과는 다른 어떤 것을 덧붙여서 거부감을 줄이는 방안을 제시한다. 예를 들어, 안경과 같은 것을 먼저 모델링을 하고 눈을 디자인하거나 인간과 비슷한 피부를 입히기 보다 되려 나무 등의 질감을 가진 재료를 이용한 로봇 손 등을 만드는 식이다.

그렇다면, 이 ‘불쾌한(uncanny)’이라는 단어의 상대어 또는 반대말은 무엇일까? 아마도 ‘편안함(comfortable)’ 내지는 ‘익숙함/친근함(familiarity)’ 등의 단어가 떠오를 것이다. 그런데, 여기서 하나 우리가 감안해야 할 부분이 있다. 불쾌함이라는 느낌이 불편하고 낯선 것에서 기인한다면 어쩌면 사람들이 적응을 하면서 변할 수도 있다는 점이다. 예를 들어, 비디오 게임과 같은 가상의 세계의 경우 초기에는 너무나 현실과 다른 수준의 원시적인 그래픽을 가지고 있었지만, 시간이 지날수록 정교해지더니 이제는 실제와 구별이 안될 정도로 뛰어난 게임들이 나오기 시작했다. 초기에 다소 어색하게 느껴지는 3D 그래픽도 이제는 정교하게 동작하면서 정말 현실과 비슷해 질수록 게이머들은 더욱 열광하지 현실과 너무 비슷하게 느껴진다고 불쾌하게 느끼는 경우는 거의 없는 듯하다. 

인공지능에도 이와 같은 “불쾌한 골짜기”가 있을까? 최근 개봉한 영화 <그녀(Her)>에서 보듯이 정말 사람과 비슷하고 상호작용이 가능한 인공지능이 나타난다면, 사람들이 그렇게까지 불쾌하게 생각할 것 같지는 않다. 되려 주인공은 심지어 사랑에 빠지지 않았는가? 그렇지만, 어설프게 비슷해지면 불쾌함을 느낄지도 모르겠다. 애플의 시리(Siri)는 어느 정도의 유머도 있고, 말대답도 잘하는 정말 사람과도 비슷한 그런 수준의 인공지능을 구현하고 있다. 물론 아직도 진짜 인간과 비교하기에는 멀었지만 말이다. 인공지능에 “불쾌한 골짜기”를 생각한다면, 아마도 어느 순간 이 인공지능이 확실히 인공지능이라서 내가 잘 활용해야 되겠다는 느낌을 주는 것이 아니라, 약간은 섬찟한 느낌이 들 정도로 수준이 높아졌을 때 발생할 것이다. 음성으로 소통하는 인공지능이라면 음색과 말하는 속도, 높낮이 등도 중요할 것이고, 대화의 질이나 감성 등도 중요한 요인이 된다. 답이 없는 질문에 대한 대처를 한다거나, 부끄러움을 느낀다거나 … 이런 종류의 인공지능은 현재의 인공지능과는 또 다른 요소들이다. 

IBM의 Watson이 켄 제닝스와 같은 세계 최고의 퀴즈왕과의 경쟁에서 이길 정도로 똑똑함을 과시하고 있지만, 문제를 못 맞추고 부끄러워 하거나, 유머를 자연스럽게 구사하는 인간적인 부분들은 아직 없는데, 이는 물론 현재의 인공지능 연구가 논리적인 판단과 답을 내기 위한 것에 집중하고 있기 때문이라고 생각할 수 있다. 다른 로봇연구에서와 마찬가지로 인간을 이해하고 이를 흉내내는 쪽의 연구가 많이 진행된다면 어쩌면 이 역시도 극복이 가능한 문제가 될 수 있을 것이다. 

이처럼 다소 인간적인 속성을 구현한 뒤의 인공지능이 ‘불쾌한 골짜기’ 넘기 위한 또 하나의 속성은 무엇일까? 사회적인 상호작용이 그 중의 하나가 될 것이다. 구글 나우나 Siri 등이 어느 순간 자율적으로 우리들의 대화에 끼어들거나, 먼저 말을 거는 상황을 상상해볼 수 있을까? 현재의 인공지능은 마치 주인과 노예처럼 사용자인 인간이 어떤 명령을 내리거나 질문을 던지기 전에는 먼저 움직이는 상황은 거의 상정하지 않고 있다. 하지만, 상호작용을 이해하고, 같이 이야기를 나누는 사람을 알아가면서 그 사람의 성향에 맞추어 먼저 이야기를 하거나 분위기를 전환하고 인간관계를 학습할 수 있다면 이 역시도 인간에 훨씬 유사한 인공지능이라는 느낌을 주기 시작할 것이다.

여기에 도덕적인 관점과 윤리에 대한 생각도 해야 할 것이다. 자율성을 갖추고, 상호작용을 하며, 진화발전하는 인공지능이라면 무엇이 옳고, 그름을 판단할 수 있어야 단순히 똑똑한 것을 넘어선 인공지능이라고 부를 수 있다. 최근 예일대학의 웬델 월러치(Wendell Wallach)와 피츠버그 대학의 콜린 알렌(Colin Allen)이 공동집필한 <왜 로봇의 도덕인가? (원제: Moral Machines)> 라는 책이 국내에서도 번역되어 나오기도 했는데, 이렇게 로봇이나 인공지능에게 윤리를 심어주려는 연구도 미국 국방부를 중심으로 한창 진행이 되고 있다.

이제 인공지능과 로봇과 관련한 연구도 ‘불쾌한 골짜기’를 넘는 데에 필요한 다양한 방향으로 진행되어야 할 것이다. 예를 들어, 적절한 시기를 봐서 남들에게 나쁜 뉴스를 전하는 방법이라든지, 문맥이나 분위기에 맞춰서 억양이나 말의 속도, 크기 등을 조절하는 기술, 사람들의 감성을 읽고 그에 공감하는 것과 같은 미세한 부분들이 앞으로 인공지능이 진짜 사람들에게 사랑받고 이를 받아들이게 만드는데 중요한 역할을 할 수도 있다. 그리고, 역설적이게도 이런 기술의 발전이 있기 위해서는 인간과 우리 사회에 대한 연구가 같이 병행되어야 한다. 사람들이 무엇을 좋아하고, 어떻게 행복감을 느끼며, 사회성은 어떻게 발달하고, 커뮤니케이션 하는지, 무엇이 옳은 것인지 등에 대해서 인문학과 사회학, 심리학, 그리고 윤리학 등에서 적절한 모델과 학습방법을 제시해 줄 수 없다면, 결국 로봇이나 인공지능이 그런 매력적인 사람(?)을 흉내내거나 배울 수 있도록 하지 못할 것이기 때문이다. 영화 <그녀(Her)>에 나온 기술은 그래서 생각보다 무척이나 어려운 기술이다. 단순히 올바른 답을 내도록 하는 문제풀이형 인공지능과는 또 다른 수준의 도전적인 과제다. 그렇지만, 이런 도전적인 과제를 풀다가 보면 인간에 접근한 로봇이나 인공지능을 만들어낼 수도 있겠지만, 그 이전에 우리 인간과 사회가 얻어낼 수 있는 것이 더욱 많지 않을까? 기술과 인문학의 융합이 필요한 또 하나의 이유다.

글 : 하이컨셉
출처 : http://goo.gl/o4VYcX

%d bloggers like this: