뉴스 트렌드 생활정보 International edition 매체

AI가 알려준 ‘건강 팁’ 믿었다가…美 중독·응급실 잇따라

입력 | 2025-10-28 02:18:02

AP 뉴시스


챗GPT에 의학적 조언을 구한 후 브롬화물 중독 등 건강 악화 사례가 잇따르자, 미국 의료 전문가들이 주의를 촉구하고 있다.

24일(현지시간) 미국 뉴욕포스트에 따르면 최근 미국에서 의료 관련 질문을 던진 사용자에게 AI가 불완전하거나 부정확한 조언을 제공한 사례가 다수 확인됐다.

한 남성은 챗GPT에 염화나트륨 섭취를 줄이는 방법을 묻자, AI는 대체재로 브롬화나트륨을 추천했다.

남성은 브롬화나트륨의 독성을 알지 못한 채 3개월간 요리에 사용했고 결국 브롬화물 중독으로 사망했다.

또 다른 남성은 심장 수술을 받은 후 복시(사물이 두 개로 보임) 증상을 겪었지만 의료진의 진료 대신 챗GPT에 조언을 구했다.

AI는 남성에게 “카테터 절제술 후 시력 장애는 일시적이며 짧은 시간 내에 저절로 호전된다”고 답했고, 이에 남성은 별다른 조치를 하지 않고 방치하다가 응급실로 실려 가는 사고를 겪었다.

전문가들은 AI의 불완전한 진단과 정보 제공이 치료 지연으로 이어질 수 있다고 지적했다.

뉴욕 특수외과병원의 대런 레블 박사는 “많은 환자가 챗GPT와 나눈 대화를 보여주곤 하는데, AI를 통해 얻은 조언은 실제 논문을 바탕으로 한 과학적 권고가 아닐 수 있다”고 말했다. 그는 “AI가 사용자에게 제공한 의학적 조언의 약 4분의 1은 AI가 만들어낸 허위 정보였다”고 강조했다.

의학 분야 AI 전문가 데이비드 프루 역시 “AI는 의학 용어 이해나 진료 예약 준비에는 도움이 될 수 있다”면서도 “증상의 심각성이나 긴급 치료 여부를 판단할 때 사용해서는 안 된다”고 경고했다.

[서울=뉴시스] 

트랜드뉴스

지금 뜨는 뉴스