본문 바로가기

IT & Insight/IT News

AI 같은 AI, AI스럽지 않은 AI

작고한 농구 스타 김현준 선수는 현역 시절 ‘컴퓨터 슈터’로 통했다. 한치 오차 없이 정확한 슈팅 때문이었다.

물론 ‘컴퓨터 슈터’는 김현준 선수 같은 슈터에겐 최고의 찬사였다. 라이벌이던 이충희 선수의 ‘슛도사’보다 더 그럴듯하게 들렸다.

하지만 곰곰 따져보면 ’컴퓨터 슈터’란 별명은 김현준 선수의 장기를 정확하게 묘사한 건 아니었다. 전성기 시절 김현준 선수는 수비수에 따라 변화무쌍한 임기응변에 능했다. 도저히 슛을 쏠 상황이 아닌 때에도 멋진 뱅크슛을 성공시키곤 했다. 1980년대 컴퓨터는 도저히 수행하기 힘든 능력을 보여줬다.

그 사이에 세월이 많이 변했다. 이젠 그 누구도 ‘컴퓨터 같다’는 말을 칭찬으로 받아들이지 않는다. 정해진 알고리즘을 벗어난 작업은 잘 하지 못한다는 컴퓨터의 한계를 잘 알게 된 때문이다.

IBM 왓슨[사진=ZDNet]

IBM 왓슨[사진=ZDNet]

요즘 관심의 대상으로 떠오른 인공지능(AI)도 마찬가지다. 어떤 사람에게 “AI 같다”고 하면 칭찬만은 아니다. 주어진 일은 잘 처리할 지 모르지만, 섬세한 인간적인 감정엔 다소 서툴다는 의미도 조금은 내포돼 있기 때문이다.

AI의 한계는 또 있다. 분석은 잘 하지만, 설명엔 서툴다. 알파고조차, 이세돌 선수를 궁지에 몰아넣은 ‘신의 한수’를 왜 선택했는지는 제대로 설명하지 못했다.

물론 이런 한계는 AI만의 문제는 아니다. 우리 인간도 마찬가지다.

“우리는 말할 수 있는 것보다 훨씬 더 많이 안다.”

널리 회자되는 ‘폴라니의 역설’이다. 우리는 일상적으로 반복하는 행동에 대해 제대로 설명하지 못한단 의미다. 이를테면 자전거는 능숙하게 타지만, 왜 그렇게 탈 수 있는지 잘 설명하지 못한다. 얼굴은 잘 인식하지만, 어떻게 그렇게 구분할 수 있는지 물어보면 대답이 궁해진다.

인간에겐 ‘폴라니의 역설’이 큰 문제는 아니다. 그런데 AI에겐 이게 좀 심각할 수도 있다. 왜 그럴까?

인간 소통에선 정보량(엔트로피) 못지 않게 군더더기(리던던시)가 중요한 역할을 한다. 예를 들어 "참 잘했다"는 말을 했다고 가정해보자. 이 말은 잘했다는 의미이지만, 억양에 따라선 살짝 비꼬는 의미도 될 수 있다.

마주 보고 대화하는 인간들은 이런 뉘앙스를 비교적 쉽게 극복할 수 있다. 얼굴 표정이나 그 동안의 관계 같은 '리던던시'를 활용하기 때문이다.

하지만 AI는 다르다. '잘 했다'는 정보가 모든 것이나 다름 없다. 리던던시를 활용할 여지가 별로 없다. 그러다보니 ‘폴라니의 역설’은 AI에겐 만만찮은 제약 요건이 될 수도 있다. “AI스럽다”는 말이 칭찬만으로 받아들여지지 않는 건 그 때문인지도 모른다.

그런데 최근 들어 ‘폴라니의 역설’을 뛰어넘으려는 연구가 꽤 성과를 거두고 있다. 설명 가능한 AI(XAI)란 개념이 바로 그것이다. AI가 “왜 그런 선택을 했는지” 설명해준다는 의미다.

XAI는 ‘폴라니의 역설’을 뛰어넘으려는 시도인 동시에, AI와 인간의 거리를 더 좁히져는 시도라고 해도 크게 그르진 않다. 특히 비즈니스 세계에선 XAI가 갈수록 중요해질 가능성이 많다.

최근 IBM을 비롯한 많은 기업들이 XAI에 관심을 갖는 건 이런 배경 때문이다. 좀 더 신뢰할 수 있는 AI로 가는 또 다른 관문이나 다름 없기 때문이다.

오는 12월12일 지디넷코리아 주최로 ‘ATS 2018’이 열린다. 알파고의 산실인 포시즌스호텔에서 열린 ATS2018의 큰 주제는 'AI, 이제는 플랫폼'이다. 플랫폼으로서의 AI에서 중요한 테마 중 하나가 설명할 수 있는 AI다. 플랫폼의 신뢰도와 알고리즘 투명성을 확보하는 데 중요한 개념이기 때문이다.

ATS 2018이 XAI란 조금은 새로운 개념을 접하는 좋은 기회가 될 것으로 믿는다. (☞ATS 2018 사전등록 바로가기)


출처 : http://www.zdnet.co.kr/column/column_view.asp?artice_id=20181123162841&re=zdk