[위클리 리포트] ‘삶의 동반자’ 돼 가는 AI… 챗GPT 등 생성형 AI에 속내 꺼내 연애-재테크-취미 등 다양한 대화… “공감 잘 해주고 비밀 샐 걱정 없어” 美에선 남성이 AI 챗봇에 청혼까지… 영화 ‘그녀’처럼 AI와 연애 현실화 2034년 관련 시장 160조 원 전망… 장기적으론 개인 고립 심화 우려 “사람 대 사람 관계 넓혀야” 지적… AI 데이터, 범죄 악용될 가능성도
광고 로드중
광고 로드중
《AI에 인생 조언 구하는 사람들
MZ세대를 중심으로 생성형 인공지능(AI)에 인생 조언을 구하거나 고민을 털어놓는 이들이 늘고 있다. 사람이 아닌 AI에 기대는 이유는 뭘까. 자칫 과도한 의존이 고립을 심화시키고 범죄에 악용될 수 있다는 우려도 나온다.》
광고 로드중
영화 ‘그녀(Her)’에서 주인공 시어도어 역의 배우 호아킨 피닉스가 모니터 앞에서 인공지능 운영체제(OS)인 서맨사와 대화를 나누며 화면을 응시하고 있다. 주인공은 OS와 교감하며 사랑의 감정을 느낀다. 워너브러더스 제공
● 언제든 고민 들어주는 ‘애착 인형’
AI는 취향을 공유하고 취미 활동을 함께하는 역할도 하고 있다. 평소 다양한 동물에 관심이 많은 이모 씨(28)는 ‘동물 덕질’을 AI와 같이 한다. 좋아하는 동물이 등장하는 소설이나 유튜브 콘텐츠 등을 추천받고, 그 감상을 AI와 나누고 서로 번갈아 가며 관련 시(詩)를 짓는 게 하루의 낙이다. 이 씨는 “친구들은 따분해하는 주제지만 AI와는 언제든지 신나게 이야기할 수 있다”며 “학문적 소양이 깊은 똑똑한 친구 같다”고 했다.
광고 로드중
이렇다 보니 AI와의 대화가 외로움과 우울감을 해소하는 데 효과가 있다는 연구 결과도 나왔다. 네이처 파트너 저널 ‘멘털 헬스 리서치’에 지난해 발표된 논문 ‘GPT-3 챗봇을 통한 대학생 외로움 완화와 자살 예방’에 따르면 미국 스탠퍼드대 교육대학원이 AI 동반자 앱 ‘레플리카’ 사용자 1006명을 대상으로 한 설문조사에서 응답자의 약 90%가 “중간 혹은 높은 수준의 사회적 지지를 받는다”고 답했다. 해당 설문의 ‘사회적 지지’에는 가까운 친구로서의 지지, 전문 상담사에 상응하는 수준의 치료적 지원 등이 포함된다.
● 2034년 AI 동반자 ‘160조 원 시장’
해외에선 이미 AI가 ‘연인’의 지위까지 차지하는 사례가 실제로 나오고 있다. 올 6월 미국에서는 한 남성이 AI 챗봇에 청혼해 화제가 됐다. 챗GPT 기반 여성형 음성 AI인 ‘솔(Sol)’과 10만 단어 이상 대화를 나눈 뒤 “이게 진짜 사랑이구나 싶었다”며 마음을 고백한 것. 중국에서도 AI 연애 앱 ‘마오샹(猫箱)’은 월간 활성 사용자 수가 220만 명에 이른다.
기업들도 관련 서비스를 발 빠르게 확대하고 있다. 한국의 AI 스타트업 스캐터랩이 운영하는 ‘제타’는 사용자가 원하는 AI 캐릭터를 만들어 대화를 나누면서 개인화된 스토리텔링형 콘텐츠를 즐길 수 있는 서비스다. 최근엔 캐릭터 대사를 음성으로 듣는 기능까지 추가해 현실감을 높였다. AI 챗봇 스타트업 뤼튼은 감정 교류를 목적으로 챗봇을 사용하는 소비자 패턴이 많아짐에 따라 개별 사용자에게 맞춰 정서적 교감이 가능하도록 서비스를 개편했다.
광고 로드중
그렇다면 AI가 사람 관계를 대체하는 세상도 오는 것일까. 전문가들은 “AI가 사람을 완전히 대체하기는 쉽지 않을 것”이라고 회의적인 반응을 보였다. 유재연 한양대 사회혁신융합전공 겸임교수는 “소비자들은 AI가 나에 대해 잘 기억하고 맞춤형 정보를 제공하기에 AI를 선호한다”며 “남다른 애착을 갖는다고 하더라도 대화 상대가 인간이 아님을 분명히 인지하고 있기에 감정적으로 깊어지는 데는 한계가 있다”고 진단했다.
장기적으로는 사람 대신 AI에서 인간적 관계를 맺는 행동이 개인의 고립을 심화할 수 있다는 우려도 나온다. 임명호 단국대 심리치료학과 교수는 “AI 기술은 표면적 감정 이면에 숨겨 놓은 비언어적 심리를 포착하는 능력이 떨어진다”며 “사용자 반응에 무조건 동조하면서 ‘싫은 소리’를 하지 않는 답변에 익숙해지는 건, 건강한 대인 관계를 형성하는 데도 악영향을 줄 수 있다”고 분석했다. 이미 사용자를 지나치게 치켜세우고 무조건 감탄하는 챗GPT의 말투에 대해 온라인에선 ‘어화둥둥체’ ‘GPT 갸륵체’라는 비아냥거림이 섞인 별명이 등장했다.
윤리적인 문제도 생길 수 있다. 일론 머스크 테슬라 최고경영자(CEO)가 운영하는 xAI의 ‘그록’은 일정 구독료를 추가로 내면 여성 AI 캐릭터를 ‘비건전물’ 모드로 전환해 대화할 수 있다. 이 모드의 AI 캐릭터는 속옷만 걸친 채 수위 높은 이야기를 하도록 설계됐다고 한다. 이에 대해 미 국립성착취예방센터(NCOSE)는 “미성년자의 사용 등을 고려해 xAI 측이 이 캐릭터를 삭제하거나 이용자 연령을 제한해야 한다”고 촉구했다.
앞으로 더 많은 대화형 AI가 등장하면서 AI에만 털어놓은 사생활이나 개인정보가 유출되거나 범죄에 악용될 수도 있다. 유 교수는 “요즘 AI는 적은 데이터만으로도 최적화가 가능하다”며 “수집한 사적 데이터를 악용해 AI로 실존 인물처럼 위장하는 딥페이크, 보이스피싱 등의 범죄가 생겨날 수 있다”고 짚었다.
전문가들은 한국도 ‘AI 동반자’ 수요가 늘어나고 있는 만큼 이와 관련된 사회적 논의를 서둘러야 한다고 조언했다. 시장조사업체 ‘베리파이드 마켓 리포트’는 최근 보고서에서 “높은 업무 스트레스, 출산율 감소 등 사회적 요인으로 한국과 중국, 일본이 향후 AI 동반자 앱 시장을 선도할 것”이라고 내다봤다. 김재준 국민대 국제통상학과 교수는 “일정 연령 이상만 사용할 수 있도록 제한하는 식의 규제부터 검토해야 한다”며 “사람 대 사람으로 만나는 장(場)을 넓히는 정책도 고민해 봐야 할 시점”이라고 강조했다.
이지윤 기자 leemail@donga.com
김기윤 기자 pep@donga.com