‘인공지능(AI)에 관한 최고의 교과서를 집필한 세계적인 석학이 인공지능을 원자폭탄 개발에 비교하면서 인공지능의 발전에 두려움을 느낀다고 말했다.
29일 영국 가디언지는 UC 버클리의 스튜어트 러셀 교수와의 인터뷰를 실었다.
러셀 교수는 이 인터뷰에서 인공지능의 발전에 갈수록 더 무서움을 느끼고 있다고 말했다.
UC 버클리의 인간 호환 인공 지능 센터 설립자이자 Al 분야의 역저로 꼽히는 ‘인공지능: 현대적 접근방식’의 저자인 러셀 교수는 대부분의 전문가들이 금세기에 인간보다 지능이 더 높은 기계가 개발될 것이라고 믿고 있다고 말했다.
그는 가디언과의 인터뷰에서 “AI 커뮤니티는 우리가 이제 현실 세계에 정말 큰 영향을 미치기 시작했다는 사실에 아직 적응하지 못했다”고 말했다.
“그건 현장 역사의 대부분에 해당되지 않았다. 우리는 단지 연구실에 있었고, 무언가를 개발하고, 작동시키려고 노력했지만, 대부분 작동시키는 데 실패했다. 따라서 실제 영향에 대한 질문은 전혀 관련이 없었다. 그리고 우리는 따라잡기 위해 매우 빨리 성장해야 한다”고 말했다.

”러셀 교수는 오늘날의 AI가 목표 수행의 ‘효율’을 극도로 추구하게 돼 있어 현실 세계의 다양한 변수를 충분히 고려하지 않는다는 점을 문제로 꼽았다.
예를 들어 AI에게 가능한 한 빨리 암을 치료하도록 요청하는 것은 위험할 수 있다고 그는 지적했다.
러셀 교수는 “아마도 전체 인구에서 종양을 유도하는 방법을 찾아 우리 모두를 기니피그로 사용하여 수백만 개의 실험을 병렬로 실행할 수 있을 것”이라고 말했다.
“그리고 그것이 우리가 부여한 목표에 대한 해결책이기 때문이다. 우리는 인간을 기니피그로 사용할 수 없으며 전 세계 GDP를 실험에 사용할 수 없다는 점을 명시하는 것을 잊어버렸다.”고
두려움을 감추지 않았다.
그는 오늘날의 AI와 ‘Ex Machina’와 같은 영화에서 묘사된 것과 여전히 큰 격차가 있지만 인간보다 더 지능적인 기계가 있는 미래가 카드에 있다고 말했다.
러셀은 “가장 낙관적인 기간은 10년에서 수백 년까지 다양하다고 생각한다”면서도 “그러나 거의 모든 AI 연구자들은 금세기에 일어날 것이라고 말할 것”이라고 밝혀 그 시기가 멀지 않았음을 시사했다.
한 가지 우려는 심각한 위험을 초래하기 위해 기계가 모든 면에서 인간보다 더 지능적일 필요는 없다는 것이다.
그는 “지금 벌어지고 있는 일이다. 사람들이 읽고 시청하는 것을 선택하는 알고리즘과 소셜 미디어를 보면 우리의 인지 입력을 엄청나게 제어할 수 있다.”
그는 알고리즘이 사용자를 조작하고 세뇌하여 사용자가 선택한 대상과 관련하여 행동을 보다 예측 가능하게 하여 클릭 기반 수익을 증대시킨다고 말했다.
그는 AI 연구원들이 자신의 성공에 겁을 먹었느냐는 질문에 “예, 우리가 점점 겁에 질린 것 같아요.”라고 말했다.
그는 소형 대인 무기와 같은 군사 응용 분야에서 AI를 사용하는 것이 특히 우려된다고 말했다. Russell은 “그들은 매우 쉽게 확장할 수 있는 것들이다. 즉, 트럭 한 대에 100만 개를 실을 수 있고 뒤쪽을 열고 나가서 도시 전체를 쓸어버릴 수 있다.”라고 말다.
Russell은 “AI의 미래가 우리의 선호도와 마찬가지로 진정한 목표가 불확실하다는 것을 아는 기계를 개발하는 데 달려 있다고 믿는다. 즉, 어떤 결정이든 집사처럼 인간과 함께 확인해야 한다. 그러나 아이디어는 복잡합니다. 특히 사람들마다 선호도가 다르고 때로는 상충되는 경우도 있고 이러한 선호도는 고정되어 있지 않기 때문이다”고 말했다.
그러면서 그는 연구원을 위한 행동 강령, 사용 중인 AI 시스템의 안전을 보장하기 위한 법률 및 조약, AI가 인종 편견과 같은 문제에 취약하지 않도록 하기 위한 연구원 교육을 포함한 조치를 요구했다. 그는 기계가 사람을 사칭하는 것을 금지하는 EU 법안이 전 세계적으로 채택되어야 한다고 말했다.
<김치형 기자>
관련기사 프로그래머도 이해 못하는 AI, 인류가 통제할 수 없다.