제목이나 시놉시스에 이끌려 모처럼 책을 구해 펼쳤다가 도입과 전개의 지루함이나 맥락의 방황에 슬며시 책을 덮어버리는 불량독자인 필자에게 내내 읽는 재미를 주었던 책 ‘사피엔스’(2015, 김영사)의 저자 유발 하라리(Yuval Noah Harari, 1976~)는 20대 초반에 옥스퍼드대학에서 중세전쟁사로 박사학위를 받고, 역사와 과학을 엮은 담론들을 흥미롭고 대담하게 펼치는 20여 년의 강연과 저술의 행보를 통해 이 시대의 아이콘으로 우뚝 선 이스라엘 히브리대학의 석학이다.
많은 이들이 봤겠지만, 지난 3월 내한 강연에서 그는 그간의 정치·사회·문화 등의 역사에 대한 본인 특유의 거시적 직관과 통섭적 영감들 위에 이 시대의 화두인 A.I.가 어떤 모습으로 우리에게 다가올 것인지, 아니 다가와 있는지에 대해 이야기해 많은 관심을 받았다. 비록 유튜브로 접한 강연이었지만, 그의 이야기 속에 필자에게 정말 재미난 예시가 있었다.
요는 오픈 A.I.社가 ChatGPT-4를 개발하는 과정에서, 사람은 쉽게 하지만 로봇이나 컴퓨터는 하기 힘든 시각 퍼즐, 소위 ‘보안문자인식(CAPT CHA)’ 과제를 부여했더니 인공지능이 스스로 해결할 수 없는 문제임을 바로 판단했고, 인터넷에 접속해 사람들이 있는 구인사이트 비슷한 곳에 가서는 그 문제를 풀어줄 사람을 고용하려는 시도를 했다는 것이다.
그런데 사이트에 접속해 있던 사람들이 이런 일로 사람을 구하는 게 의심스러워 “보안문자 풀어줄 사람이 왜 필요하죠? 혹시 당신은 로봇인가요?”라고 물었는데, A.I.가 “아니요, 저는 로봇이 아니고 시각장애인이라 보안문자를 볼 수 없어요”라고 서슴없이 대답했다고 한다. 이에 사람들이 공감과 연민으로 보안문자를 풀어줬다는 내용이었는데, 고놈 참 똑똑하다고 보기에는 섬뜩함이 느껴지는 대목이었다.
하라리는 이런 결과가 인공지능의 큰 특징인 ‘스스로 판단하는 능력’과 ‘가장 나은 선택으로 과제를 해결한다’는 두 가지 요소가 설계된 대로 작동한 것이라고 설명했다. 거짓말을 하면 안 된다는 원칙도 없고, 못하겠다거나 모르겠다는 답을 할 수 있도록 설계돼 있지 않기 때문이라고 한다. 상식적으로 필자 같은 비전문가들은 이 부분이 아쉽고, 받아들이기 쉽지 않다.
아무튼 다시 하라리의 강연으로 돌아와서, 그는 이런 표현을 썼다. “기차는 비행기를 만들 수 없지만 A.I.는 비행기도 만들 수 있을 뿐만 아니라 우리가 모르던 완전히 새로운 것을 만들어낼 잠재력이 있다. 이것은 사회계층구조나 국가 간의 우위구도까지도 완전히 변화시킬 정도의 잠재력을 의미한다. 누구도 혼자 독점해서는 안 되며, 윤리적·도덕적 감시와 민주주의적 통제가 반드시 수반돼야 하는 대상임을 잊지 말아야 한다”고 강조했다. 모든 이야기가 우려스럽고 긴장되는 내용이었지만 “A.I.가 쉽게 할 수 없는 일들을 능히 해내는 인간으로 자기를 계발하는 것이 미래의 교육이어야 하고 경쟁력 있는 직업형태”라며 “지능과 감성, 운동능력 등과 같이 여러 능력이 복합적으로 혼재되어 수행하는 일, 예컨대 의사보다는 간호사가 A.I.로 대체되기 더 어려운 직업”이라고 설명할 때, 치과의사들이 매일 환자를 돌보는 모습이 떠올라 우리 직업이 인공지능과 기계가 대체하기 쉽지 않은 복합적인 일임을 새삼 느껴 일말의 자긍심을 가졌다.
하라리가 정리하는 결론에는 약간의 희망적인 답이 있다. 원칙적으로 정보(data)를 관리함에 있어 진실은 비용이 많이 들지만, 허구와 거짓된 데이터들은 만들기도 쉽고 대중들의 취향에 맞는 경우가 많아 전파되기도 쉬우며, 현재 대부분의 데이터는 후자가 전자를 양적으로 압도하는 상황이다. 이 부분을 직시하고, 모든 인간이 궁극적으로 원하는, 진실을 이야기하는 A.I.를 원한다면 우리가 진실되고, 신뢰하는 관계로 만들어진 데이터(역사, 문화, 이데올로기 등)로 학습된 아이를 키운다는 자세로 미래의 A.I로 성장시켜야 한다는 내용이다.
결론은 또 다시 우리가 늘, 그리고 지금도 아쉬워하는 진실과 신뢰에 대한 이야기다.