
챗GPT에 의학적 조언을 구한 후 브롬화물 중독 등 건강 악화 사례가 잇따르자, 미국 의료 전문가들이 주의를 촉구하고 있다.
24일 뉴욕포스트에 따르면 최근 미국에서 의료 관련 질문을 던진 사용자에게 AI가 불완전하거나 부정확한 조언을 제공한 사례가 다수 확인됐다.
한 남성은 챗GPT에 염화나트륨 섭취를 줄이는 방법을 묻자, AI는 대체재로 브롬화나트륨을 추천했다.
남성은 브롬화나트륨의 독성을 알지 못한 채 3개월간 요리에 사용했고 결국 브롬화물 중독으로 사망했다.
또 다른 남성은 심장 수술을 받은 후 복시(사물이 두 개로 보임) 증상을 겪었지만 의료진의 진료 대신 챗GPT에 조언을 구했다.
AI는 남성에게 “카테터 절제술 후 시력 장애는 일시적이며 짧은 시간 내에 저절로 호전된다”고 답했고, 이에 남성은 별다른 조치를 하지 않고 방치하다가 응급실로 실려 가는 사고를 겪었다.
전문가들은 AI의 불완전한 진단과 정보 제공이 치료 지연으로 이어질 수 있다고 지적했다.
뉴욕 특수외과병원의 대런 레블 박사는 “많은 환자가 챗GPT와 나눈 대화를 보여주곤 하는데, AI를 통해 얻은 조언은 실제 논문을 바탕으로 한 과학적 권고가 아닐 수 있다”고 말했다. 그는 “AI가 사용자에게 제공한 의학적 조언의 약 4분의 1은 AI가 만들어낸 허위 정보였다”고 강조했다.
의학 분야 AI 전문가 데이비드 프루 역시 “AI는 의학 용어 이해나 진료 예약 준비에는 도움이 될 수 있다”면서도 “증상의 심각성이나 긴급 치료 여부를 판단할 때 사용해서는 안 된다”고 경고했다.




