1967년 영국의 윤리 철학자인 필리파 푸트(Philippa R. Foot)가 한가지 질문을 던진 적이 있다.
‘브레이크가 고장난 트롤리 기차가 달리고 있다. 앞에 레일 위에서 5명의 인부가 일을 하고 있어 멈추지 못하면 이들이 죽게될 것이다. 피할 수 있는 한 가지 방법은 레일변환기로 트롤리의 방향을 바꾸는 것뿐이다. 헌데 그 다른 레일 위에는 1명의 인부가 있다. 당신이라면 트롤리의 방향을 바꿀 것인가?’
이 질문에 대해 응답자의 89%가 ‘방향을 바꾸어야 한다’고 했다. 이른바 ‘트롤리 딜렘마’다.
한편 미국의 도덕 철학자인 주디스 톰슨(Judith J. Thomson)은 이 질문에 대해 한가지를 더 추가했다.
‘당신이 육교 위에서 브레이크가 고장 난 트롤리가 5명의 인부를 향해 달리고 있는 것을 보고 있다. 무거운 것을 떨어뜨려 트롤리를 멈춰야 하는데 육교에 뚱뚱한 사람 한 명이 있다. 당신은 몸무게가 적어 육교에서 떨어져도 트롤리를 멈출 수 없고 그 사람을 떠밀 경우 확실히 트롤리를 멈출 수 있다면 그 사람을 육교 아래로 떨어뜨려야 하는가?’
응답자들의 78%가 안 된다고 응답했다. ‘소수를 희생해서 다수를 구할 것인가’를 묻는 두 문제에서 한 사람의 목숨을 희생해 다섯 사람의 목숨을 구하는 것은 같은데도 왜 다른 판단의 대답이 나오는 걸까?
이에 대해 하버드 대학의 심리학자 조슈아 그린(Joshua Greene)은 ‘무엇이 옳고 무엇이 그르냐는 철학적 사고와 달리 실제 인간이 닥친 상황에서 윤리적 결단을 내릴 때는 이성적 시스템과 정서적 시스템의 갈등 속에서 우세한 쪽을 선택한다’고 주장했다.
이 이야기는 현재 논란이 되고 있는 인공지능 자율주행 자동차 상용화와도 밀접하게 관련되어 있다. 자율주행 자동차의 경우 트롤리 딜레마 같은 피할 수 없는 여러 상황에 따른 도덕적 결단까지 사전에 프로그래밍해 놓아야 하는 등 복잡한 문제와 연결되어 때문이다.
세계 최초로 시민권을 부여받은 인공지능 로봇 소피아는 ‘대형 화재가 발생했을 때 할머니와 아이 중 한 명만 구해야 한다면 누굴 먼저 구하겠냐?’ 라는 질문에 ‘이는 마치 엄마가 좋아, 아빠가 좋아라는 질문과 같다’며, ‘난 윤리적으로 결정하고 생각하도록 프로그램 되어있지 않기 때문에 논리적으로 출입구에 가까이 있는 사람부터 구해야 한다’고 대답했다.
이는 반대로 사람을 죽이게 되는 상황에서도 마찬가지로 적용된다는 의미다. 해서 한 게임프로그램에서 보이는 내용은 우리를 더욱 섬뜩하게 한다. 무인 차량이 사고를 인지할 경우 예상 희생자들의 각종 데이터를 수집/분석하여 사람의 가치를 측정하고 가치값이 적은 쪽을 죽이도록 한다는 얘기가 나온 거다. 예를 들어 자율 주행 자동차가 어느 쪽으로 방향을 바꾸느냐에 따라 의사 한 명이 죽게 되느냐 사형수 5명이 죽느냐하는 경우 인공 지능은 후자를 선택할 수 있다는 것이다.
최근 샌프란시스코에서 극단적으로 대립하고 있는 자율주행 자동차 ‘로보택시’ 찬반 소요를 보며 떠오른 이야기들이다.
옹호론자들은 술에 취했거나 딴짓을 하는 운전자에 비하면 로보택시를 움직이는 인공지능(AI)의 오류가 훨씬 적다고 주장하고, 반대론자들은 소방차나 구급차의 비정상적 움직임에 AI가 완벽하게 대응하는 것은 불가능하다고 반박한다.
과연 사람이 죽는 사고나 죽게해야만 하는 상황이 발생하는 경우 AI의 선택을 인간의 선택과 같은 무게로 볼 수 있을는지? 여러분들은 어떻게 생각하십니까?
관련기사
[김학천 타임스케치];관동대지진 조선인학살, 명백한 제노사이드
[김학천 타임스케치] 내 아들은 왕의 DNA를 가졌으니..
샌프란시스코, 사람 없는 100% 무인택시 24시간 영업허가(영상)
샌프란 24시간 무인택시 성관계 사례 다수 발견 “쉬쉬” 러브호텔 전락 우려(영상)