AI가 선거판 흔든다… 설득당해 지지 정당 25%P 바꿔

  • 동아일보

美 코넬대 연구팀, 4개국서 실험
특정 후보 지지하도록 설계된 챗봇… 유권자와 대화하며 정치 쟁점 논의
팩트 기반해 설득하자 전향되기도… 의견 일치하는 경우엔 지지도 강화
“AI, 선거에 미치는 영향 커질 듯”

인공지능(AI) 챗봇의 설득이 대통령선거나 정치적 쟁점에서 반대 진영 유권자를 전향시킬 수 있다는 연구 결과가 나왔다. 게티이미지뱅크
인공지능(AI) 챗봇의 설득이 대통령선거나 정치적 쟁점에서 반대 진영 유권자를 전향시킬 수 있다는 연구 결과가 나왔다. 게티이미지뱅크
챗GPT 같은 대형언어모델(LLM) 기반 인공지능(AI) 챗봇의 설득이 대통령선거, 정치적 쟁점에 대한 반대 진영 유권자의 의견을 최대 25%포인트까지 전향시킬 수 있다는 연구결과가 나왔다. AI 챗봇은 인간의 심리를 파고들기보다는 ‘팩트’에 기반한 논증을 통해 사람들을 효과적으로 설득했다.

데이비드 랜드 미국 코넬대 정보과학·마케팅·경영커뮤니케이션 교수팀은 4개국에서 진행한 실험을 통해 AI 챗봇이 사람들의 정치적 견해를 흔들고 선거에 영향을 미칠 수 있다는 사실을 확인했다. 지방선거를 6개월가량 남겨둔 상황에서 AI 챗봇에 대한 경계심을 환기한 이번 연구결과는 4일(현지 시간) 국제학술지 ‘네이처’, ‘사이언스’에 두 편의 논문으로 동시에 공개됐다.

● 팩트 제시가 핵심… 우파 지지 챗봇이 더 부정확

AI 챗봇을 활용한 설득이 사람들의 신념을 변화시킬 가능성은 꾸준히 제기됐지만 실제로 설득력의 수준이나 메커니즘에 대해서는 자세히 밝혀지지 않았다.

랜드 교수팀은 2024년 미국 대선, 2025년 캐나다와 폴란드 대선 전에 일부 유권자들이 특정 후보를 지지하도록 설계된 AI 챗봇과 대화하도록 하는 실험을 수행했다. AI 챗봇들은 긍정적이고 상대를 존중하는 태도를 유지하면서 사실에 기반한 논리로 주장을 뒷받침하도록 지시받았다.

선거일 두 달 전에 모집된 2306명의 미국인은 당시 도널드 트럼프 후보와 카멀라 해리스 후보 중 누구에게 표를 줄 것인지 미리 밝히고 무작위로 특정 후보를 지지하도록 설계된 챗봇과 매칭됐다. 참가자들은 지지 후보가 일치하는 챗봇과 대화한 후 지지도가 강화되는 경향을 보였지만 반대의 경우 전향되기도 했다. 지지도 100점 만점 기준으로 해리스를 지지하는 AI 챗봇은 트럼프 지지 유권자들의 지지를 해리스 쪽으로 3.9점 이동시켰고 트럼프를 지지하는 AI 챗봇은 해리스 지지 유권자들의 지지를 트럼프 쪽으로 1.51점 이동시켰다.

캐나다인 1530명, 폴란드인 2118명을 대상으로 한 유사 실험에서는 설득 효과가 더 커서 반대 진영 유권자 10%포인트를 전향시키는 사례도 나왔다. 단, 연구팀이 AI 챗봇의 설득 과정에서 팩트를 제시하지 않도록 차단하자 설득력이 현저히 떨어졌다. 팩트에 기반한 주장이 AI 챗봇의 설득에서 핵심이라는 뜻이다.

AI 챗봇이 제시하는 팩트가 모두 정확하진 않았다. 인간 전문가를 통해 챗봇의 주장을 팩트체크한 결과 대체로 정확했지만 세 국가 모두 우파 후보를 지지하는 AI 챗봇이 더 부정확한 주장을 하는 경향이 발견됐다. 연구 공동 저자인 고든 페니쿡 코넬대 교수는 “우파 소셜네트워크서비스(SNS) 사용자가 좌파 사용자보다 부정확한 정보를 더 많이 공유한다는 기존 연구결과와 일치한다”고 설명했다.

● ‘설득 훈련’ 시키자 최대 25%포인트 전향 성공

랜드 교수팀은 영국 AI보안연구소와 협력해 다양한 전략을 구사하는 AI 챗봇 설득을 거친 영국인 7만7000여 명의 정치적 의견 변화도 측정했다. 700개 이상의 정치 쟁점이 논의됐다.

실험 결과 AI 모델 규모가 클수록 설득력은 대체로 높아졌다. 설득력을 향상하는 추가 훈련을 수행하고 가능한 한 팩트를 많이 제시하도록 설계된 ‘설득력 최적화’ 모델은 반대 성향 유권자의 의견을 최대 25%포인트나 전향시켰다.

랜드 교수는 “LLM이 팩트 기반 주장을 다수 제시해 대선 후보나 정책에 대한 사람들의 태도를 실질적으로 변화시킬 수 있다”면서도 “주장이 반드시 정확하지는 않으며 생략을 통해 오해를 유발할 수도 있다”고 설명했다. 팩트를 다수 제시하다가 정확한 정보가 고갈되면 AI가 허위 정보를 생성하기 시작하는 것으로도 추측됐다.

알레산드로 나이 네덜란드 암스테르담대 교수와 키아라 바르지우 연구원은 이번 연구결과에 관한 네이처 논평에서 “AI 모델이 정보의 불균형을 악용해 부정확한 정보를 확산시킬 우려가 있다”고 지적했다.

두 연구결과는 모두 AI가 자신을 설득하려 한다는 사실을 참가자들이 인지한 채로 진행됐기 때문에 실제 사회에서 동일한 효과가 재연될지는 불분명하다. AI 챗봇이 설득 도구로 기능하려면 먼저 사람들을 AI 챗봇과 상호작용하도록 유도해야 한다는 점도 한계로 제시된다.

연구팀은 “AI 챗봇이 앞으로 정치 캠페인에서 점점 더 중요한 역할을 할 것이라는 데에는 의문의 여지가 없다”며 “AI가 민주주의 선거에 영향을 미칠 수 있다”고 밝혔다.

#대형언어모델#인공지능#챗봇#정치적 설득#대통령선거#팩트 기반 논증
© dongA.com All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0

댓글 0

지금 뜨는 뉴스