AP 뉴시스
광고 로드중
챗GPT에 의학적 조언을 구한 후 브롬화물 중독 등 건강 악화 사례가 잇따르자, 미국 의료 전문가들이 주의를 촉구하고 있다.
24일(현지시간) 미국 뉴욕포스트에 따르면 최근 미국에서 의료 관련 질문을 던진 사용자에게 AI가 불완전하거나 부정확한 조언을 제공한 사례가 다수 확인됐다.
한 남성은 챗GPT에 염화나트륨 섭취를 줄이는 방법을 묻자, AI는 대체재로 브롬화나트륨을 추천했다.
광고 로드중
또 다른 남성은 심장 수술을 받은 후 복시(사물이 두 개로 보임) 증상을 겪었지만 의료진의 진료 대신 챗GPT에 조언을 구했다.
AI는 남성에게 “카테터 절제술 후 시력 장애는 일시적이며 짧은 시간 내에 저절로 호전된다”고 답했고, 이에 남성은 별다른 조치를 하지 않고 방치하다가 응급실로 실려 가는 사고를 겪었다.
전문가들은 AI의 불완전한 진단과 정보 제공이 치료 지연으로 이어질 수 있다고 지적했다.
뉴욕 특수외과병원의 대런 레블 박사는 “많은 환자가 챗GPT와 나눈 대화를 보여주곤 하는데, AI를 통해 얻은 조언은 실제 논문을 바탕으로 한 과학적 권고가 아닐 수 있다”고 말했다. 그는 “AI가 사용자에게 제공한 의학적 조언의 약 4분의 1은 AI가 만들어낸 허위 정보였다”고 강조했다.
광고 로드중
[서울=뉴시스]