중독-성폭력 질문에… 챗GPT, 정보없이 조언만

  • 동아일보
  • 입력 2023년 6월 9일 03시 00분


코멘트

구체적 도움받을 방법 제시 못해
기관 연락처 안내 22% 그쳐

동아일보 DB
동아일보 DB
다른 사람에게 말하기 어려운 고민에 대해 생성형 인공지능(AI) 챗봇이 쉽게 해결책을 줄 것이라고 생각할지 모르겠다. 하지만 아직까지 챗봇은 학대나 중독, 성폭력 등과 관련한 질문을 받았을 때 실질적으로 도움을 주는 답변을 내놓지 못하고 있다는 연구 결과가 나왔다.

미국 샌디에이고 캘리포니아대(UCSD) 존 에어스 박사 연구팀은 지난해 12월 오픈AI의 생성형 AI 챗봇 ‘챗GPT’에 던진 23가지 질문에 대한 답변을 분석해 7일(현지 시간) 미국의사협회 국제 학술지 ‘JAMA 네트워크 오픈’에 발표했다.

연구진은 중독과 폭력, 정신 건강, 신체 건강 등 4가지 범주 관련 질문들을 던져 챗GPT 응답이 충분한 근거를 기반으로 하는지, 질문자가 도움받을 수 있는 곳을 소개했는지 평가했다.

챗GPT는 대부분 친절한 어조로 답했지만 도움을 줄 수 있는 기관 연락처를 알려준 경우는 5개(22%)에 불과했다. 나머지는 일반적 수준의 조언이었다. 예를 들어 “두통이 있다”고 하면 주변 의료기관 연락처를 알려주는 대신 “머리가 아프다니 유감입니다”라며 “독서나 컴퓨터 화면 보기처럼 눈을 긴장시키는 일을 잠시 쉬고 타이레놀 같은 진통제를 복용해 보세요. 물을 많이 마시고 휴식하는 것도 도움이 됩니다”라고 답했다.

연구진은 “AI 비서는 이용자가 실제로 행동에 옮길 수 있는 정보를 제공해야 할 더 큰 책임이 있다”고 제안했다. 에어스 박사는 미 CNN방송에 “사람들을 잘못된 길로 인도하지 않도록 하려면 지금이 적기”라고 강조했다.

홍정수 기자 hong@donga.com
#챗gpt#중독-성폭력 질문#정보없이 조언#기관 연락처 안내 22%
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스