
미국의 한 60대 남성이 인공지능 챗GPT의 조언을 따른 뒤, 수영장 청소에 사용하는 독성 화합물을 섭취해 중독 증세를 보이며 3주간 병원에 입원하는 일이 벌어졌다.
13일(현지시각) 데일리메일에 따르면, 이 남성은 최근 소금 섭취를 중단하는 실험을 하던 중 챗GPT에 소금 대체제를 질문했다.
이에 챗GPT는 ‘브롬화나트륨’을 추천했고, 그는 일반식염(염화나트륨) 대신 브롬화나트륨을 대체제로 섭취했다.
이 남성은 결국 20세기 이후 사실상 사라진 질병인 브롬중독증에 걸렸다.
브롬화나트륨은 과거 진정제로 판매됐으나, 현재는 주로 수영장 청소용 화학물질로 쓰인다.
인체에 들어가면 정신병, 망상, 피부 발진, 메스꺼움 등을 유발하며, 19세기에는 정신병원 입원 환자의 약 8%가 브롬중독으로 인한 것으로 보고됐다.
남성은 이웃이 자신을 독살하려 한다며 응급실을 찾으면서 사건이 알려졌다. 그는 이전에는 정신 질환을 앓은 적은 없었다.
사건 이후 의사들이 챗GPT를 직접 실험한 결과, 실제로 건강 위험에 대한 언급 없이 브롬화나트륨을 소금 대체제로 추천했다.
이전에도 구글의 챗봇이 사용자의 질문에 ‘돌을 먹으면 건강에 좋다’는 잘못된 답변을 내놓은 사례가 있었다.
한편 챗GPT의 개발사인 실리콘밸리의 오픈AI는 “서비스의 답변을 진실의 유일한 출처로 의지해서는 안된다”며 “전문가의 조언을 대체하는 것으로 여겨서도 안된다”라고 경고했다.
<K-News LA>