인공지능 기술 발달이 가져오는 편리함과 효율성의 뒷면에는 불안과 공포가 새겨져 있다. 인공지능과 자동화로 인해 기존의 일자리들이 기계화될 것이라는 불안이고, 사람의 지능을 능가하는 강한 인공지능이 등장해 인류 실존을 위협할 것이라는 공포다.
매사추세츠공과대학이 펴내는 과학기술 전문지 ‘MIT 테크놀로지 리뷰’ 최신호는 2019년 주목해야 할 인공지능의 위험 6가지를 소개했다. 2018년 인공지능 각 분야에서 일어난 일들을 기반으로, 2019년에는 어떤 방식으로 해당 위험요인이 현실화할 수 있는지를 살펴보는 방식이다. 인공지능 기술에 대한 ‘현실적 위험보고서’이다. 다행히 6가지 우려에서 킬러로봇은 포함되어 있지 않다.
2018년 3월18일 밤 10시 미국 애리조나 템피의 한 교차로에서 자율주행 상태로 운행하던 우버의 에스유브이가 자전거를 끌고 걸어가던 40대 여성을 치어 숨지게 하는 사고가 발생했다. 자율주행차가 일으킨 첫 보행자 사망 사고이다. abc 방송 촬영 화면
첫째, ‘자율충돌’ 자율주행차
2018년: 3월 미국 애리조나주 피닉스 인근 템페에서 자율주행중이던 우버 차량이 보행자를 사망하게 하는 사고가 발생했다. 12월에는 애리조나 피닉스에서 구글의 자율주행차 회사인 웨이모가 세계 최초로 자율주행 택시 서비스에 들어갔다. 제한된 고객과 제한된 지역에서 당분간 사람이 운전석에 탑승하고 있는 상태이긴 하지만, 자율주행 차량의 공식 상용서비스가 개시된 것이다.
2019년 : 첫 사망사고와 상용 서비스가 모두 애리조나 피닉스에서 일어난 것은 애리조나가 미국에서 자율주행 차량의 실험무대인 탓이다. 애리조나주는 자율차 주행 실험을 위해 각종 규제를 없앴고, 피닉스 지역은 눈비가 없는 사막의 평지이며 도로 시설이 잘 돼 있고, 강렬한 햇볕으로 행인이 드물고 신호등을 가로막는 가로수도 희소한 지역이다. 미국 도로교통안전국(NHTSA)은 2016년 구글의 요청에 회신하면서 법규상 운전자 개념을 확대해, 사람이 아닌 자율주행차의 소프트웨어도 포함할 수 있다는 결정을 내린 바 있다. 하지만 자율주행차의 ‘셀프 충돌’ 사고 사례가 늘어나면, 상황은 달라질 수 있다. 이용자의 기대와 신뢰는 하락하게 되고, 정부 당국의 규제는 다시 강화될 수 있다.
컨설팅기업 딜로이트가 2019년 1월8일 발표한 ‘2019 글로벌 자동차 소비자 연구’ 보고서에서 '자율주행차는 안전하지 않다'라고 응답한 소비자 비율이 전년에서 정체됐다고 밝혔다. 미국 소비자 응답비율은 2017년 74%에서 2018년 47%로 급감했으나, 사망 사고를 겪은 뒤인 2019년엔 50%로 소폭 증가했다.
두 번째, 정치 조작 봇2018년 : 영국의 정치컨설팅 회사 케임브리지 애널리티카가 페이스북의 데이터 공유 구조를 이용해 2016년 미국 대선에 영향을 끼쳤다는 사실이 밝혀져 파란이 일었다. 케임브리지 애널리티카는 파산 선언을 하고 문을 닫았다. 소셜미디어를 통해 뉴스와 정보를 이용하는 현실에서 이를 악용하는 알고리즘에 대한 경각심이 높아지고 있다. 미국 의회 청문회에 페이스북의 최고경영자 마크 저커버그가 불려나와 추궁당했고, 저커버그는 인공지능을 학습시키면 악의적 내용을 찾아내고 막을 수 있다며 알고리즘 개선을 약속했다.
2019년 : 마크 저커버그의 약속은 곧 남아프리카공화국과 나이지리아에서 치러지는 선거에서 시험무대에 오른다. 2020 미국 대선을 향한 레이스도 시작되었는데, 이 또한 테스트 공간이다. 악의적인 챗봇과 인공지능이 허위 왜곡정보 생산과 유통에 어떤 영향을 끼칠지 주목해야 하는 상황이다.
2013년 4월22일 영국 런던에서 국제적인 비영리조직 ‘킬러로봇 금지 캠페인’이 출범해, 인공지능 킬러로봇 개발 반대활동을 해오고 있다. 킬러로봇 금지 캠페인 제공
셋째, 평화를 위한 알고리즘2018년: 구글이 인공지능을 활용해 이미지를 식별하고 분류하는 기술을 미국 공군의 메이븐 프로젝트에 제공하고 있다는 사실이 알려졌다. 메이븐은 인공지능을 이용해 군사용 드론의 이미지를 분석하고 드론의 목표 타격률을 향상하는 미 국방부 프로젝트다. 구글 직원 3100명은 순다르 피차이 구글 최고경영자에게 편지를 보내 “미 국방부의 메이븐 프로그램에서 철수하고 전쟁기술을 구축하지 않을 것임을 발표하라”고 요구했다. 몇몇 구글 직원은 이를 이유로 구글을 떠났고, 구글은 메이븐 프로젝트에서 손을 떼고 ‘인공지능 윤리강령’을 만들었다. 2018년 2월 카이스트는 방산업체인 한화시스템과 함께 국방인공지능융합연구센터를 설립하고, 인공지능 무기를 개발한다고 밝혔다가 29개국의 세계적 인공지능 연구자들이 공동연구 거부 선언을 하게 만들었다.
2019년 : 인공지능 연구에 대한 미국 국방부의 예산이 증가하고 있는 것과 동시에 세계적인 인공지능 자율무기 반대 운동 또한 활성화하고 있다. 활동가들은 유엔 등 국제적 협의체에서 관련한 조약이 만들어지길 기대하고 있다.
넷째, 인공지능 감시 경쟁2018년: 인공지능의 얼굴인식 기술을 활용한 대량 감시와 보안 기술이 조지 오웰의 ‘1984’와 같은 초감시사회에 대한 우려를 낳고 있다. 강력 범죄에 대한 시민 불안과 테러 등 치안에 우려는 각국 정부로 하여금 고해상도의 CCTV와 이미지 분석 기술을 갖추게 하는 동력이다. 중국은 이미 세계 최고 수준의 얼굴인식 기술을 개발해 범인 검거와 대량 감시에 두루 활용하고 있다. 아마존은 관련 기술을 미국 이민국과 사법기관에 판매하고 있다.
2019년 : 얼굴 인식 기술은 차량과 웹캠으로도 확산되고 있으며, 표정의 미세한 변화를 읽어내는 감정 분석과 감정 추적에도 사용되고 있다. 소셜 로봇은 이러한 감정 분석 데이터와 기술을 적극 활용하는 도구다.
중국 이 2018년 11월 세계인터넷대회에서 선보인 세계 최초의 인공지능 아나운서. 유튜브 갈무리
다섯째, 허위 왜곡 정보의 범람2018년 : 딥페이크(deep fake)는 유명인의 가짜 동영상을 얼마나 손쉽고 간단하게 만들어낼 수 있는지를 보여줬다. 대립하는 두 알고리즘이 피드백을 주고받으면서 가짜를 만들고 식별하는 인공지능 알고리즘(GAN)의 등장은 진짜와 식별이 불가능한 가짜가 범람하는 세상에 대한 우려를 키웠다. 이미 이를 활용한 유명인 합성조작 조작 포르노가 외국 배우만이 아니라 국내 유명 배우들을 상대로도 다수 제작되어 유통되는 상황이다.
2019년 : 딥페이크 기술을 활용한 허위조작 동영상 제작은 일반인을 대상으로 확대될 것이다. 미 국방부 방위고등계획국(DARPA)는 인공지능을 활용해 딥페이크로 만든 조작 영상을 감지하는 연구를 하고 있지만, 이는 기본적으로 ‘창과 방패’의 쫓고 쫓는 승자없는 게임이다.
여섯 번째, 알고리즘 차별
알고리즘이 편견을 갖고 있으며 차별을 구조화한다는 사실은 수많은 상용도구에서 발견되었다. 구글 포토의 이미지 분류에서부터 대출심사, 유죄판단, 고용 등 알고리즘이 사용되는 거의 모든 분야에서 차별과 편견의 문제가 보고되고 있다. 알고리즘은 기본적으로 사람과 사회가 만든 데이터를 기반으로 작동하는 만큼, 기존에 관행적으로 또 의도적으로 이뤄져온 차별과 편견을 알고리즘화하고 자동화하는 경향을 지니기 때문이다.
2019년에도 이 문제는 지속될 것이며 알고리즘의 편견과 차별을 탐지하고 완화하기 위한 다양한 모색과 대안이 일어날 것이다.