AI와 인간의 가장 큰 차이로 ‘감정’(Emotion)을 들 수 있습니다. 인간과 동물은 감정이 있어서 희로애락을 느끼고 웃거나 우는 등의 행위를 합니다. 하지만 AI는 특정한 학습 알고리즘에 입각한 프로그램이기 때문에 감정이 있을 이유가 없습니다. 다만 감정이 어느 정도 프로그램화되어 눈물을 흘리거나 웃는 등 상황에 따라 인간의 감정과 유사하게 ‘감정 모사’하는 것은 일정 부분 가능할 수 있고, 실제로 여러 공학 분야에서 많은 연구가 진행 중입니다. 하지만 AI가 인간 감정을 유사하게 흉내 내는 것은 인간의 감정 표현과 엄연히 다른 것으로 보아야 할 것입니다.
AI와 관련된 또 하나의 중요한 한계로 지적되는 것은 바로 ‘비판 능력’(Ability to Judge)입니다. AI는 자신이 반복 학습을 통해 받아들인 지식 내용에 대해 올바른 것인지 그른 것인지, 이 내용이 사회적으로 정당하게 수용 가능한 것인지 불가능한 것인지 비판할 수 있는 능력이 없습니다. 이 문제에 대해서는 국내외에서 단적인 예가 이미 존재하고 있습니다.
미국의 마이크로소프트(Microsoft)가 2016년에 개발한 AI 챗봇 테이(Tay)는 심층 학습 알고리즘을 활용하여 미국 젊은이들과 트위터(Twitter)상에서 대화하는 것을 목적으로 제작됐습니다. 테이는 2016년 3월 23일 트위터 계정을 통해 일반에 공개되었습니다. 그런데 악의적인 트위터 이용자들 가운데 테이에게 자극적인 발언을 가르치려는 움직임들이 생겨났습니다.
몇몇 이용자들은 “따라 해 봐”(Repeat after me)라는 말을 먼저 학습시킨 후 부적절한 발언을 그대로 따라 하게 만들어 해당 어휘를 학습하도록 유도하는 방식을 취했습니다. 그들은 테이가 인종 차별적인 용어, 성 차별적인 발언, 자극적인 정치적 발언 등을 말하도록 유도하는 데에 성공했습니다. 테이는 세상에 공개된 지 몇 시간 후부터 홀로코스트는 조작이고, 히틀러는 옳았으며, 유다인을 증오하며, 멕시코인들을 쓸어버려야 하고, 페미니스트들은 지옥에서 불타 죽어야 한다는 등의 상당히 심각한 발언들을 쏟아내게 되었습니다. 이에 마이크로소프트사는 테이 공개 16시간 만에 운영을 중단하고 조정 작업에 들어갔다가, 결국에는 완전히 비공개 처리를 하고야 말았습니다.
국내 경우에도 스캐터랩 소속 핑퐁 팀(ScatterLab Pingpong Team)이 개발한 페이스북 메신저 채팅 기반 열린 주제 대화형 AI 챗봇 ‘이루다’가 테이와 거의 같은 이유로 인해 정식 오픈 20일 만에 서비스를 중단하는 일이 발생했습니다.
이러한 일이 발생하게 된 이유는 테이나 이루다와 같은 AI가 학습된 특정한 발언이나 가치관이 사실적으로나 도덕적으로 올바른 것인지 아닌지를 판단할 능력을 갖추지 못했기 때문입니다. 테이는 단지 트위터 이용자들이 하는 말을 그대로 배우고 문법을 고려하여 적절히 배열한 문장을 늘어놓기만 했을 뿐입니다.
바로 이러한 ‘학습된 내용에 관한 비판 능력’의 부재는 향후 AI의 발전에 따라 일부 개선될 수는 있을지 몰라도, 인간이 지닌 정도에까지 이르기에는 가야 할 길이 너무 멀어 보입니다.
앞서 언급된 AI의 ‘학습된 내용에 관한 비판 능력’의 부재 문제와 연관된 것으로, AI의 ‘도덕·윤리적 판단 능력’의 부재 문제를 이제 좀 더 깊이 다루어보고자 합니다. 인간이 지니고 있는 도덕·윤리적 판단 능력은 무엇이 선한 것이고 무엇이 악한 것인지를 분별할 수 있는 인간 고유의 감각 또는 양심(Conscientia·인간에게 선과 악에 대해 알려주는 판단)으로부터 생겨나는 것으로 흔히 여겨집니다. 하지만 AI는 이러한 선악 분별 감각이나 양심을 가지지 못한 것으로 보입니다.
악(Malum)을 ‘선의 결핍’(Privatio Boni)으로 보는 성 아우구스티누스에 따르면, “악은 본질적으로 무질서 곧 하느님으로부터 등 돌림과 피조물들을 향해 돌아섬, 최고선으로부터 멀어져 하위의 선들에 집착하는 데에 있다. 그러한 무질서의 유일한 원인은 ‘자유재량’이다. … 모든 악에 앞서 의지의 도덕적 무질서가 있다. 질료적 무질서, 물리적 악도 도덕적 무질서로부터 나온다.”
또한 토마스 아퀴나스에 따르면, 도덕적으로 악한 행위(culpa) 또는 도덕적 악은 악한/나쁜/잘못된 행위 혹은 질서를 벗어난 행위가 ‘의지’로부터 비롯된 행위, 곧 ‘의지적 행위’(Voluntarium)인 경우로 정의됩니다.
그런데 우리가 이미 앞에서 살펴본 바와 같이 AI에게는 자유와 의지가 없기 때문에, AI는 악을 알거나 경험할 수 없습니다. 따라서 AI는 악을 이해할 수 없고, 선과 악을 분별하는 것 역시 불가능한 것입니다.
결국 AI에게는 세상 모든 사건들을 선과 악의 구별 없이 받아들이고 기억하고 학습할 따름입니다. 따라서 AI는 탁월한 이성적 판단 능력이 있음에도 불구하고 자체적인 도덕·윤리적 판단 능력은 없는 것으로 봐야 할 것입니다.
그러다 보니 AI를 법학 분야에 적용할 경우 어느 인간보다도 AI가 공정한 판결을 할 수는 있겠지만, 그 판결은 선과 악에 대한 감각 및 도덕·윤리적 판단 능력으로부터 나오는 것이 아니라 법률 및 판례들에 관한 엄청난 양의 반복 학습으로부터 얻은 법리적 논리의 결과일 뿐입니다.