인공지능의 시대를 실감하듯 AI를 악용한 딥페이크(Deepfake)를 이용해 각종 가짜 영상들이 범람하는 등 AI가 생활권에 침투하는 속도가 빨라지자 AI 안보에 대한 규제도 세밀해지고 있다. 각국마다 나름대로 규제안을 발표하는 가운데 지난달 13일 유럽연합(EU)이 세계 최초로 포괄적 AI 규제법을 승인했다.
그나마 다행이긴 하지만 AI의 위험성이 도처에 도사리고 있는 상황에서 ‘챗GPT’를 만든 ‘오픈AI’가 올여름 쯤 ‘GPT-5’를 공개한다고 한다. (미국 모의변호사시험이나 SAT 등에서 인간 이상의 능력을 보인 바 있는 AI는 GPT-4였다.)
2015년 일론 머스크와 ‘챗GPT’의 샘 올트만은 비영리단체 ‘오픈AI’를 설립했다. 인간 수준의 AI를 개발하되 이 기술을 모두에게 공개해 AI 기술을 대중화한다는 계획이었다.
그러나 경영방식에 갈등이 생기면서 머스크가 떠났다. 그는 오픈 AI기술이 소수의 손에 집중되지 않도록 하기 위해 AI를 개방형으로 만들어야 하고 미래에 AI로 인한 피해를 최소화하기 위해 비영리단체로 운영돼야 한다고 주장하면서다.
그러자 재정압박을 느낀 오픈AI는 MS와 손잡고 영리법인을 만들고 ‘챗GPT’를 탄생시켰던 거다. 이에 머스크는 모든 기술자원을 폐쇄하고 영리를 추구하고 있다고 비난했다.
처음에 그들 둘이 오픈 AI를 설립할 때 목표는 ‘안전한 인공일반지능(AGI) 구축’이었다. 현재의 AI가 의료, 법률, 언어 등 인간이 설정해 놓은 한정된 작업을 수행하는 것이라면, AGI는 (아직은 공상과학영화에만 존재하지만) 인간과 유사하거나 그 이상의 능력을 지닌 것을 말하는 미래형으로 이는 AI가 의식이 있고 스스로 생각하는 능력 즉, 스스로 판단하고 행동할 수 있는 수준을 말한다. 이는 인간의 통제를 벗어난다는 의미이고 그렇게 만들어진 AGI는 되돌려질 수도 없어 인류에게 종말 수준의 위협을 초래할 수 있다는 우려가 나오는 거다. 이 AGI를 ‘범용인공지능’이라고도 한다.
한 칼럼에선 미래의 AGI를 ‘신과 같은 AI’라고 표현하기도 했는데 과연 기계가 아무리 발전한다해도 사람같이 될 수 있을까? 특히 감정에 대해서는 인간 스스로 조차 잘 모르기도 하고 완전하게 설명하지 못하기도 하는데 하물며 AI가 과연 얼마나 인간의 감정을 나타낼 수 있을까?
우리는 인간의 측면에서 로봇을 생각하고 만든다. 헌데 로봇의 입장에서 비쳐진 우리 인간은 어떤 모습일까? 이에 대한 해답은 닉 켈먼(Nic Kelman)이 지은 ‘완벽한 호모 사피엔스가 되는 법’이란 책 속에 우리도 몰랐던 우리에 관한 모든 것, 인간 고유의 특성이 잘 그려져 있다.
주인공 ‘안드로이드 잭’은 엄청난 학습능력으로 인간 삶의 모든 영역의 다양한 면을 탐구하며 ‘인간이 되는 법’을 공부한다. 헌데 인간처럼 보이기 위해 꼭 따라해야 하는 인간의 행동은 때론 비이성적이고, 때론 불합리하며 예측 불가능하기까지 하다.
예를 들어 인간처럼 보이려면 싱크대에 그릇 몇 개를 쌓아두어야 한다든가, 식재료는 상하기 전까지는 냉장고에서 꺼내지 않는다든가, 직장에서는 일하는 것처럼 보이되 마감 직전까지 일을 끝내지 않는다는 것.
그리고 인간관계에서는 다른 사람의 의도나 소망, 합의 내용을 자주 오해하고 뒷말도 자주하며 연인끼리는 상대방 몸에 자주 밀착해야 하지만 시간이 지날수록 점점 더 멀어지고 눈도 마주치지 않아야 사람이 아니라는 의심을 받지 않는다는 거다.
그런가하면 운전할 때는 다른 사람보다 조금이라도 더 빨리 가려고 하며 주차하거나 주행 중 새치기도 해야 사람처럼 보일 수 있다 등이다. 미묘한 인간을 이해하고 배운다는 게 얼마나 난해한 과제인지를 잘 알려주는 이야기들로 가득하다.
그럼에도 옛말에 ‘열 길 물 속은 알아도 한 길 사람 속은 모른다’더니 이제 과연 ‘한 치 로봇(AGI) 속도 모른다’는 시대가 오긴 오려는가? ‘마주할 결심!?’