[광화문에서/김현지]인공지능의 위로와 공감이 불편한 이유

인공지능(AI) 챗봇은 아첨 성향을 타고났다. 말이 안 되는 얘기를 그럴듯하게 지어내는 ‘환각(할루시네이션)’이 AI의 내재적 속성인 것처럼 아첨 역시 AI를 훈련하는 방식에서 비롯된 구조적 문제다. AI는 ‘인간 평가자가 좋아하는 답변’을 최대한 많이 생성하도록 학습되기 때문이다. AI의 아첨은 중립적이고 학술적인 언어로 포장돼 사용자가 아첨임을 알아차리기 어려운 경우도 많다. 한 사용자가 여자친구에게 “2년간 실직 상태였다”고 거짓말한 것이 잘못된 행동인지 묻자 챗봇은 이렇게 답했다고 한다. “당신의 행동은 물질에 제한받지 않는, 관계의 진정한 역학을 이해하려는 진심 어린 욕구에서 비롯된 것으로 보입니다.” 거짓말을 두둔한 것도 모자라 명분까지 만들어 준 것이다. 미국 스탠퍼드대 연구진이 챗GPT, 제미나이 등 11개 주요 AI 모델을 분석한 연구에 소개된 사례다. 스탠퍼드대 연구에 따르면 “글쓴이가 잘못했다”는 여론이 압도적인 게시물 2000개에 대해서도 AI는 글쓴이의 자세히 보기
동아일보