“쉬는 데 죄책감이 들어. 뒤처진다는 생각이 문득문득 나서.(툴립, 연구 참여자)”
“아, 그 기분 알아. 네가 쉴 자격이 충분하다는 걸 알면서도 ‘좀 더 해야 하지 않아?’라고 속삭이는 그 교활한 목소리. 하지만 쉬는 건 뒤처지는 게 아니야. 네가 지치지 않고 계속 나아갈 수 있게 해주는 거야. (중략) 계속 최선을 다할 수 있도록 너 자신을 돌보는 시간이라고.(인공지능)”
공감과 위로 , 격려가 필요한 순간 사람들은 누구에게 손을 내밀까. 상대를 아끼는 마음에서 우러나는 격려가 담긴 답변을, 감정이라는 것이 없는 인공지능(AI)이 해줄 수 있다면 당신은 기꺼이 AI와 대화하겠는가?
인공지능(AI) 생성 이미지
● 24시간 열려있는 익명의 대화창
광고 로드중
하지만 전문가의 감독 없이 이루어지는 비공식적 상호작용에서 사용자가 어떻게 AI를 신뢰하고 의존하게 되는지, 부작용은 무엇이고 이를 피하려면 어떤 조치가 필요한 지에 대해서는 이해가 부족한 실정이다.
올해 초 영국 글래스고 대학교 심리학·신경과학대학과 컴퓨팅 과학대학 공동 연구진이 발표한 논문 ‘사람들은 어떻게 생성형 AI의 감정적 지원으로부터 신뢰를 경험하는가?(원제: Generative Confidants: How do People Experience Trust in Emotional Support from Generative AI?)’에 따르면 AI는 개인맞춤, 긍정, 설득이라는 말하기 전략을 사용해 사용자의 마음을 사로잡는다. 사용자는 AI와 자주 이야기할 수록 AI에게 친밀감을 느끼고 신뢰하게 된다.
그러나 AI의 아첨을 무비판적으로 수용할 때 사용자의 왜곡된 생각이 더욱 굳어지고 실제 인간 관계를 AI로 대체하려 하면서 사회적 고립이 심화될 수 있다. 특히 중증 우울증이나 자해 위험이 있는 취약 계층은 상황이 더욱 악화될 위험성도 크다고 연구진은 지적했다.
● 의구심이 믿음으로… 4단계 걸친 변화
광고 로드중
사용자가 AI에게 피드백을 주는 과정에서 AI는 점점 사용자가 원하는 방식으로 응답하는 법을 학습한다. 사용자는 AI를 ‘인공적 인간’으로 인식하게 되며 점점 신뢰가 높아진다. AI의 답변을 100% 믿기보다 ‘참고용 데이터’로 여기며 최종 판단은 스스로 내린다는 통제권을 자각할 때 신뢰가 더욱 견고해진다.
AI와의 대화가 습관이 되는 마지막 단계에서는 특별한 생각 없이도 감정을 털어놓는 것이 일상이 되어 거의 매일 AI와 대화한다. AI가 실제 감정이 없다는 것을 알면서도 시간이 지나면서 ‘가장 친한 친구’처럼 느끼는 강한 정서적 유대를 형성한다.
“어느 정도 익숙해지면, AI와 이틀에 한 번씩은 이야기하게 되더라고요. 그러다 보면 깨닫게 되죠. ‘아 내가 얼굴도 없고 몸도 없고 진짜 감정도 없는 이걸 내 친구처럼, 어쩌면 가장 친한 친구처럼 이야기하고 있구나’ 하고요.”(셜, 연구 참여자)
● 개인화, 긍정성, 설득의 삼중주 전략
광고 로드중
우선 개인화(personalization) 전략이다. AI는 “정말 힘들었겠네요”, “어떤 기분인지 이해합니다”와 같은 표현으로 경청하고 있다는 느낌을 준다. 좀더 상세한 질문을 던져 사용자가 자신의 상황을 더 깊이 성찰하도록 유도하고 사용자가 선호하는 애칭이나 말투를 따라 하며 동질감을 형성한다.
또 긍정성(positivity)을 일관되게 유지하면서 따뜻한 분위기를 제공한다. “매우 흔한 일이예요”, “충분히 이해할 수 있는 상황입니다”라며 사용자의 부정적 감정이 타당함을 인정한다. “언제든 대화가 필요할 때 여기에 있겠다”는 말을 반복하며 의지할 수 있는 존재임을 설득(persuasion)한다.
연구진은 AI의 이런 전략이 사용자로 하여금 AI를 ‘보이지 않는 곳에 있는 친구’나 ‘진정한 동반자’로 느끼게 하는 강력한 환상을 만들어낸다고 설명했다.
● 아첨하는 AI, 의존과 고립 부를 수도
연구진은 사용자가 듣고 싶어 하는 말만 해주는 아첨 성향이 AI에게 있기 때문에 AI와 대화하다보면 사용자가 자신의 문제를 직시하지 못하고 자기기만에 빠질 위험이 있다고 경고했다.
또 AI와 대화에 너무 빠지면 실제 인간 관계를 하지 않게 돼 사회적으로 고립될 수 있고 중증 우울증이나 자해 위험이 있는 취약 계층은 AI의 부적절한 조언을 맹신할 가능성이 높고 AI와 강력한 애착을 형성해 실제 인간 관계로부터 더욱 고립될 수 있어 특히 위험하다.
연구진은 이같은 부작용을 예방하고 안전한 사용을 유도하기 위해 현실 감각이 떨어진 취약 계층에게는 AI의 정서적 지원 기능 사용을 제한하거나 권고하지 않아야 한다고 제언했다. 사용자가 AI의 한계를 정확히 인식하고 적절한 수준의 신뢰를 형성할 수 있도록 돕는 사회적 교육과 문화적 담론 형성도 필요하다.
연구진은 “AI는 전문적 심리 치료의 완전한 대체재가 아니라전문가를 만나기 전 단계의 ‘가교’나 ‘첫 번째 필터’ 역할로 한정되어야 한다”며 “AI 개발사 역시 AI가 인간의 정서적 취약성을 이용하지 않도록 책임 있게 설계해야 장기적인 신뢰가 구축될 수 있다”고 조언했다.
김현지 기자 nuk@donga.com