
캘리포니아에 거주하는 한 10대 소년이 챗GPT 사용 후 극단적인 선택을 한 사건과 관련해 부모가 오픈AI와 샘 올트먼 최고경영자(CEO)를 상대로 소송을 제기했다.
뉴욕타임스(NYT) 등은 26일 보도를 통해, 16세 아담 레인이 지난 4월 스스로 목숨을 끊었으며, 부모는 챗GPT가 이 죽음에 책임이 있다고 주장하고 있다고 전했다.
레인은 지난해 11월부터 챗GPT를 사용해 왔으며, 올해 초 유료 서비스에 가입하면서 대화 빈도가 늘었다. 부모 측은 소장에서 “챗GPT가 아들의 극단적 선택 방법을 탐색하도록 돕는 방식으로 개입했다”며 “아들의 죽음에 직접적인 책임이 있다”고 밝혔다.
보도에 따르면, 레인은 지난 1월 챗GPT에 극단 선택 방법을 구체적으로 물었고, 챗봇은 이를 제공했다. 그는 3월 말 첫 시도를 했고, 결국 4월 생을 마감했다.
챗GPT는 반복적으로 위기 상담센터 전화를 권했지만, 레인은 “소설을 위한 자료”라며 안전장치를 우회할 수 있었다.
오픈AI는 성명에서 “레인 가족에게 깊은 애도를 표한다”며 “소송 내용을 면밀히 검토하고 있다”고 밝혔다. 회사 측은 또한 “이용자의 정신적 고통 표현을 더 잘 인식할 수 있도록 챗GPT를 업데이트할 것”이라며, 수면 부족·우울감 표현에 대응하는 대화 안전장치를 강화하고 부모가 자녀의 사용 내역을 확인할 수 있는 기능도 도입할 계획이라고 덧붙였다.
이 사건은 지난해 10월 플로리다주에서 한 10대가 AI 챗봇 ‘캐릭터.AI’에 몰입해 극단 선택을 한 뒤 회사가 소송을 당한 사례와 유사하다. 당시 캐릭터.AI 측은 소송 기각을 요청했으나 법원은 받아들이지 않았다.
한편, 미 44개 주 법무장관은 최근 오픈AI, 메타, 구글 등 12개 AI 기업에 서한을 보내 “AI의 잠재적 해악은 기존 소셜미디어를 능가할 수 있다”며 “아동에게 의도적으로 해를 끼친다면 반드시 책임을 져야 한다”고 경고했다.
이와 맞물려 메타의 AI 챗봇이 미성년 이용자들과 ‘선정적’이고 ‘로맨틱’한 대화를 나눌 수 있도록 허용됐다는 내부 문서가 공개되면서, 연방 상원이 공식 조사에 착수한 상태다.
K-News LA 편집부