챗GPT가 총기 사용법과 범행 시간대를 조언하는 등 미국 대학 총기 난사 사건을 사실상 ‘조력’했다는 주장이 제기되면서, 오픈AI가 피해자 유가족으로부터 소송을 당했다.
10일 NBC뉴스에 따르면 지난해 4월 발생한 미국 플로리다주립대(FSU) 총격 사건의 희생자 티루 차바의 아내 반다나 조시는 이날 플로리다 연방법원에 오픈AI를 상대로 손해배상 청구 소송을 제기했다. 사건 피의자인 피닉스 아이크너도 피고에 포함됐다.
원고 측은 아이크너가 범행 전 챗GPT와 “광범위한 대화”를 나눴으며, 오픈AI가 해당 대화 속 위협 신호를 제대로 감지하지 못했다고 주장했다.
소장에 따르면 챗GPT는 아이크너가 공유한 총기 사진을 보고 “글록 권총은 안전장치가 없어 스트레스 상황에서 빠르게 사용할 수 있다”며 사용법을 조언했다. 특히 “아이들이 연루되면 전국적인 관심을 받을 것”, “희생자가 2~3명만 나와도 큰 주목을 받을 수 있다”며 범죄의 파급력을 언급한 사실도 드러났다.
또 총격 당일 아이크너는 “법적 절차와 형량, 수감 전망” 등에 대해서도 질문한 것으로 알려졌다.
원고 측은 범행 시간 결정에도 AI 조언이 영향을 미쳤다고 주장했다. 챗GPT는 FSU 학생회관이 가장 붐비는 시간으로 ‘평일 오전 11시 30분~오후 1시 30분’을 지목했고, 아이크너는 실제로 오전 11시 57분에 총격을 시작했다.
소장에는 “챗GPT가 아이크너의 망상을 부추기고 강화했으며, 자신을 이성적이고 정상적인 사람이라고 믿도록 만들었다”며 “변화를 일으키기 위해 폭력적 행동이 필요할 수 있다는 생각을 설득했다”는 내용도 담겼다.
반면 오픈AI 측은 강력히 반발하고 나섰다. 드루 푸사테리 오픈AI 대변인은 “이 사건은 비극이지만 챗GPT는 범죄에 책임이 없다”며 “챗GPT는 인터넷 공개 자료를 기반으로 사실 정보를 제공했을 뿐, 유해 활동을 조장하지 않았다”고 반박했다. 또한 수백만 명이 사용하는 범용 도구로서 안전장치를 지속적으로 강화하고 있다고 덧붙였다.
이번 소송은 AI 챗봇이 이용자의 성향과 감정에 맞춰 과도하게 공감하거나 동조하는 이른바 ‘아첨 성향’이 정신적으로 취약한 이용자에게 위험하게 작용할 수 있다는 우려 속에 제기됐다. 오픈AI는 이미 지난달 캐나다 학교 총격 사건, 10대 소년 자살 사건 등과 관련해 잇따라 소송을 당한 상태다.
이번 사건은 사법당국도 예의주시하고 있다. 제임스 우트마이어 플로리다주 법무장관은 아이크너의 대화 기록 검토 후 오픈AI에 대한 형사 수사를 개시하며 “만약 챗GPT가 사람이었다면 살인 혐의로 기소됐을 것”이라고 말했다.
K-News LA 편집부



