인공지능 시대의 윤리, 무엇이 중요한가

인공지능 윤리가 중요해지고 있지만 정작 국제적으로 따라야만 하는 정확한 가이드라인은 없는 상황이다. 26일 상하이 월드 엑스포 컨벤션 센터에서 열린 슬러시 상하이 2019에서는 인공지능 윤리 문제를 주제로 토론하는 자리를 마련했다. 패널토론에는 마이클 베스트 조지아텍 교수, 말라비카 제이아람 디지털 아시아 허브 디렉터, 마디 샤리프 관시AI 대표가 참여했다.

베스트 교수는 “인공지능은 더 빠른 차량을 만드는 것과 같은 기술을 얘기하는 것이 아니라 자기 결정권을 시스템에 아웃소싱하는 차원의 이야기이기 때문에 윤리적 측면이 중요해진다”고 말했다. 인공지능을 통한 판단이 어떤 방식으로 내려지는지 우리가 이해하지 못한다면 윤리적인 문제가 발생할 수 있다는 설명이다.

인공지능의 판단은 인공지능 알고리즘으로부터 나온다. 베스트 교수는 바나나와 고릴라를 식별해 알아차리는 알고리즘을 예로 들었다. 그는 “인공지능이 고릴라와 바나나를 어떻게 구분할 수 있을까. 노란색이거나  구부러져있어서 바나나라고 인식하는 것일까. 사실 우리는 어떤 방식으로 인식을 하는지에  대해 정확히 알지 못한다”며 “아마 고릴라와 바나나의 특징을 나타내는 이미지 데이터를 인공지능에게 반복적으로 훈련시켜 결과를 얻어냈을 것”이라고 말했다.

패널들은 이런 반복적인 훈련에 의해 인식율을 높이는 방식은 편견을 만들고 왜곡된 결과를 도출할 수도 있다고 지적했다. 인공지능 훈련에 활용되는 데이터 세트 수가 부족하거나 투명하지 않을수록 얻어진 결과는 편협해지고 인종차별, 성별차별 등 편견이 생길 수 있다는 것.

제이아람 디렉터는 “업무에 적합한 인재를 선별해내기 위해 인공지능에 학습시키는 훈련 데이터 세트는 백인에게만 초점을 맞춰 설정되어 있다는 생각을 자주 하게된다”고 말했다. 이처럼 한쪽으로 치우친 데이터 때문에 여성이나 아시아인, 흑인 등의 소수 인종은 특정 업무를 제대로 수행하지 못할 것이라는 편견을 갖게 만든다는 설명이다.

그는 “인공지능 알고리즘의 판단이 정확한 데이터를 통해 이뤄졌는지 설명될 수 없다면 윤리적 문제에 도달할 수 있다”며 “데이터 세트를 다양화하지 않는 이상 차별은 발생할 수밖에 없을 것”이라고 말했다. 최근에는 이 문제에 대한 심각성을 알리기 위해 MIT 미디어랩의 조이 블람위니 연구원은 알고리즘 저스티스 리그 프로젝트를 시작하기도 했다. 조이블람위니는 자신이 흑인 여성이란 이유로 인공지능 데이터 세트에서 소외되는 것에 저항하고자 프로젝트를 시작했다.

인공지능 활용 서비스에 문제가 발생했을 때 그 책임은 누구에게 있는가에 대해서도 의견이 오갔다. 베스트 교수는 “인공지능 알고리즘을 만든 개발자에게 책임의 손가락질을 하는 것이 가장 빠른 방법이겠지만 사실 개발자는 편견과 차별을 만드는 데이터 세트를 훈련시킨 것에 대한 책임은 없다”고 말했다. 그는 미국 교도소에서 사용하는 인공지능 솔루션인 컴파스 테크놀로지를 예로 들며 인공지능으로부터 발생하는 윤리적 문제에 대한 책임은 다양한 레벨에서 이뤄질 수도 있다고 설명했다. 컴파스는 범죄 재발 예측 알고리즘으로 흑인일 경우 범죄 확률이 높다고 판단해 인공지능 알고리즘 왜곡 사례로 언급되고 있다. 컴파스 같은 경우 인공지능 기업은 물론 사회 전체에도 책임이 있다고 볼 수 있다는 것이 베스트 교수의 설명이다.

끝으로 베스트 교수는 인공지능에 대해 생각할 때 스스로에게 2가지 질문을 해보라고 조언했다. 첫째는 꼭 만들어야만 하는지다. 인공지능이 개인과 기업 그리고 사회에 어떤 기여를 할 수 있는 지를 생각하라는 얘기다. 두번째는 사용자에게 어떤 영향력을 미치는지 뿐만아니라 어떻게 영향력을 주는지도 생각해 볼 필요가 있다고 조언했다.



%d bloggers like this: