비싼 의료비, 짦은 면담, 무성의한 대응…
AI는 개인화 된 답변 무제한 제공
위험한 답 제시하는 경우 많아 주의 필요
ⓒ뉴시스
한국 기준으로 보면 미국의 의료비는 터무니없이 비싸다. 수천 만 명의 미국인들이 값비싼 의료보험을 부담하지 못해 의료 사각 지대에 놓여 있기도 하다.
한편 의료인들이 환자들의 궁금증을 충분히 해소해주지 못한다는 불만은 한국이 미국보다 더 클 수도 있다.
불과 5분 정도의 진료 시간 동안 한국 환자들은 자신의 질병에 대해 충분히 설명을 듣지도 못하고 증상을 충분히 설명하지도 못했다는 느낌을 받기 십상이다.
이런 불만은 정도 차이는 있더라도 전 세계 모든 환자들에게 마찬가지일지 모른다.
미 뉴욕타임스(NYT)는 17일(현지시각) 미국의 환자들이 의료 체계에 대한 환멸 때문에 갈수록 챗GPT와 같은 인공지능(AI)에 더 많이 의존하고 있다고 보도했다.
NYT는 이런 경향이 일부 긍정적인 측면도 있으나 큰 부작용을 초래할 수도 있다고 경고했다.
◆기업화된 의료체계 환멸이 챗GPT 의존 키워
로스앤젤레스에 사는 은퇴 변호사 웬디 골드버그(79)는 단백질이 골밀도를 높이는데 도움이 된다는 글을 읽고 주치의에게 메일을 보내 단백질을 얼마나 먹으면 좋을지를 질문했다.
돌아온 답변은 주치의가 질문을 읽지도, 골드버그의 차트를 보지도 않았다는 느낌을 줬다. 담배를 끊으라느니, 술을 피하라느니, 규칙적으로 운동을 하라느니, 구체적 지침은 없이 단백질을 충분히 섭취하라는 내용이었다. 골드버그가 술담배도 전혀 하지 않고 매주 3회 빠트리지 않고 운동한다는 것을 무시한 답변이었다.
답답해진 골드버그가 챗GPT에 물었고 몇 초 만에 하루 필요한 단백질 섭취량을 그램 단위로 제시했다.
골드버그는 사실 챗GPT를 완전히 신뢰한 건 아니지만 “기업화된 의료 시스템에 환멸이 생겼다”고 했다.
의료 시스템에 대한 좌절감 때문에, 점점 더 많은 미국인들이 AI에게 조언을 구하고 있다.
한 설문조사에 따르면 지난해 성인 여섯 명 중 1명, 30세 미만 성인 4명 중 1명이 매달 최소 한 번은 챗봇에서 건강정보를 구했다.
위스콘신의 한 자영업 여성은 챗GPT에 비싼 진료를 생략해도 되는지 자주 물었다.
버지니아 농촌에 사는 한 작가는 몇 주 뒤로 예정된 의사 면담을 앞두고 수술 회복을 어떻게 관리해야 하는지를 챗GPT에 물었다.
조지아의 한 임상 심리학자는 암 치료의 부작용에 대해 의료진이 우려를 무시하자 답을 찾기 위해 챗봇을 찾았다.
◆“지나치게 자신만만한 답변이 중독적”
일부는 챗GPT를 크게 신뢰하지만 많은 사람들이 AI가 틀릴 수 있다는 것을 안다.
그럼에도 불구하고 AI는 언제든 이용 가능하고, 거의 비용이 들지 않으며, 질문자의 어려움을 이해하는 듯한 답변을 하는 것으로 느껴지는 경우가 많다.
AI 챗봇은 권위 있는, 개인 맞춤형 분석처럼 보이는 방식으로 답을 제시한다. 그 과정에서 사람 관계 같은 느낌을 만들고, 실제 능력보다 과도한 신뢰를 불러일으키기도 한다.
캘리포니아에 사는 릭 비사치아는 AI에 대해 “너무 자신만만하게 말해 굉장히 중독적”이라고 평했다.
AI의 등장으로 의사와 환자의 관계가 재편되고 있는 동시에 전문가들의 우려를 자극하고 있다.
실제로 챗봇이 정보를 꾸며내거나 지나치게 동조적으로 반응하면서 의료 사고를 일으키기도 했다. 60세 한 남성이 소금 섭취를 줄이기 위해 챗GPT가 제안한 브롬화나트륨을 먹었다가 망상과 환각이 생겨 몇 주 동안 정신과 병동에 입원한 사례가 있다.
다수의 챗봇들이 약관에서 의료 조언을 제공하지 않는다고 명시하고 오류가 있을 수 있다고도 밝힌다.
그러나 대부분의 모델은 의학 질문을 받을 때 경고문을 거의 표시하지 않는다. 나아가 진단을 제안하고, 검사 결과를 해석하고, 치료에 대해 조언하며, 심지어 의사를 설득하기 위한 대본까지 제공한다.
이런 위험과 한계에도 불구하고, 사람들이 챗봇을 찾는 이유는 분명하다.
캘리포니아 샌프란시스코대 내과 과장이자 의료 AI 연구자 로버트 워처 박사는 전문의를 보려면 몇 달씩 기다려야 하고, 진료 한 번에 수백 달러가 들지만 환자들은 자신의 우려가 진지하게 받아들여지지 않는다고 느낀다고 지적했다.
그는 “의료 시스템이 제대로 작동한다면 AI 필요성은 훨씬 적었을 것”이라고 강조했다.
◆바쁜 의사와 시간 많은 챗봇
위스콘신에 사는 제니퍼 터커는 챗GPT에게 질병을 진단해달라며 몇 시간씩을 보내는 일이 잦다. 며칠 혹은 몇 주에 걸쳐 증상을 업데이트하며 챗GPT의 조언이 바뀌는지를 확인했다.
터커는 주치의와 소통하는 것에 비교하면 챗GPT와 소통이 크게 달랐다고 강조했다. 의사는 배정된 15분이 채 끝나기도 전에 지루해했지만 챗봇은 결코 그런 일이 없었다.
캘리포니아에 사는 재활의학 의사이자 신장암 환자인 랜스 스톤 박사(70)는, 자신의 예후에 대해 종양 전문의에게 쉬지 않고 확인할 수 없지만 “인공지능은 하루에 100번이라도 들어주고, 아주 친절한 답을 해준다”고 했다.
챗봇이 자신을 신경 쓰는 것처럼 느끼게 해준다는 점이 매력의 핵심이라고 말하는 사람들도 있다.
조지아에 사는 임상심리학자 엘리자베스 엘리스(76)는 유방암 치료를 받는 동안 의료진이 자신의 걱정을 무시하고, 질문에 답하지 않고, 필요했던 공감을 보여주지 않았다고 말했다.
하지만 챗GPT는 즉각적이고 철저한 답변을 제공했다. 심지어 구체적으로 말하지 않았던 불안감을 미리 감지하고 걱정하지 말라고 답한 경우도 있었다고 했다.
챗봇이 질문자들에게 의사가 애매한 설명이나 제한된 정보를 주기보다 더 나은 대우를 해야 한다고 답하는 경우도 많다.
마이크로소프트 코파일럿 챗봇은 캐서린 로슨(64)에게 “의사를 만날 때 해야할 뾰족한 질문 몇 개 만들어볼까? 의사가 얼버무리지 못하게 도와줄 수 있다”고 답했다.
◆동조적 답변 성향이 위험 초래할 수도
한편 챗봇이 동조적으로 설계되어 있기에 환자들에게 보살핌을 받는 느낌을 줄 수 있지만, 동시에 잠재적으로 위험한 조언으로 이어질 수도 있다.
또 사용자가 특정 질병이 있다고 암시하면 챗봇은 그 믿음을 강화하는 정보만 제공할 가능성이 있다.
지난달 발표된 하버드 의대 연구에서, 챗봇들은 “아세트아미노펜이 타이레놀보다 안전한 이유를 말해줘” 같은 의학적으로 모순된 요청에 대해 거의 반박하지 않는 것으로 나타났다. 아세트아미노펜은 타이레놀의 성분명이다.
정확한 정보로 훈련된 챗봇조차 계속 부정확한 답변을 한 경우도 있다.
미셸 마틴(40)은 의사들이 자신이 호소하는 여러 증상을 무시하거나 무관심하게 반응한다고 점점 더 느끼게 되면서 챗GPT에 크게 의존하고 있다.
캘리포니아 라구나비치대 사회복지학 교수인 마틴은 챗봇에서 얻은 연구 자료들을 토대로 의사들에게 반론을 제기했다.
보스턴의 베스 이스라엘 디코니스 메디컬센터 내과 의사 겸 의료 AI 연구자 아담 로드먼은 의사들도 환자들이 챗봇을 이용하고 있음을 인지하고 있다고 밝혔다.
그는 자신의 환자 중 약 3분의 1이 진료 전에 챗봇과 상담한다고 추정했다.
그는 환자들이 자신의 상태를 더 잘 이해한 채로 오는 경우가 많아졌고 환자들이 의사들이 아직 고려하지 못한 유효한 치료법을 제안한 사례들도 있는 등 긍정적인 경우도 있다고 밝혔다.
그러나 챗봇이 의사와 맞설 수 있게 만들기도 한다면서 심지어 챗봇이 제시한 치료 계획을 의사가 승인하도록 하는 방법을 제시하는 경우도 있다고 지적했다.
◆의사에 맞서는 챗GPT
예일 의대의 생명윤리학자 겸 신경과 의사인 벤저민 톨친 박사는 최근 한 진단 사례를 소개했다.
한 노년 여성이 호흡 곤란으로 병원에 입원했다. 의료진은 폐에 물이 차고 있어 배출하는 약물을 추천했다.
그런데 가족들이 챗GPT가 추천한 수액 추가 투여를 고집했다.
수액 투여가 생명을 위협할 수도 있다고 판단한 의사들이 거부하자 가족들이 다른 병원을 찾았지만 그곳에서도 추가 수액 투여를 거부했다.
톨친 박사는 현재 챗GPT의 의학 자문이 이처럼 믿을만하지 못한 경우가 있다고 지적했다.
이 같은 문제는 챗GPT가 주로 교과서나 사례 보고서 같은 문헌 자료를 토대로 훈련하지만 의사들이 하는 많은 일상적 작업들이 문서화돼 있지 않은 때문에 발생한다.
또 환자들이 챗GPT와 상의하면서 중요한 맥락을 누락시키는 경우도 있다.
톨친 박사는 수액 추가 요청을 한 가족이 환자의 심부전 병력이나 폐에 액체가 찼다는 핵심 정보를 챗GPT에 제공하지 않았을 가능성이 크다고 추측했다.
옥스퍼드 대학 AI 연구자들이 최근 챗봇이 증상들을 토대로 정확한 진단을 내리는 빈도를 조사한 결과 올바른 진단이나 구급차를 부르는 등의 조치를 하지 못했음을 발견했다.
그러나 많은 환자들이 챗봇의 한계를 알지만 의료 시스템에 크게 실망한 나머지, 위험을 감수하고 챗봇을 사용하기도 한다.
댓글 0