AI는 알고 있다. 당신이 어떤 뉴스에 반응할 지를

  • 주간동아
  • 입력 2020년 9월 20일 08시 59분


코멘트

이용자의 평소 콘텐츠 소비 성향과 관심사에 따라 AI가 맞춤형 뉴스 추천

AI가 뉴스를 배열한 이후로 개인이 포털사이트에서 보는 뉴스 화면이 모두 달라졌다. [GettyImage]
AI가 뉴스를 배열한 이후로 개인이 포털사이트에서 보는 뉴스 화면이 모두 달라졌다. [GettyImage]
‘카카오 들어오라 하세요.’

더불어민주당 윤영찬 의원이 9월 8일 보좌진에게 보낸 메신저 내용이 언론에 공개되면서 정치권에서 포털 뉴스 편집 논란이 불거졌다. 국민의힘은 정부 여당의 ‘언론통제’라고 주장하며 윤 의원의 사퇴를 촉구했고, 윤 의원은 9월 9일 자신의 페이스북에 ‘보좌진과 나눈 문자가 보도됐고 비판을 받고 있다’며 ‘송구하다. 저의 잘못이다’라고 고개를 숙였다. 이어 ‘제가 의문을 갖고 묻고자 했던 것은 뉴스 편집 알고리즘의 객관성과 공정성이었다’고 덧붙였다. 한국언론진흥재단의 2018년 언론 수용자 의식 조사에 따르면 우리나라 국민의 71.4%는 네이버 뉴스를 이용하는 것으로 나타났다. 또한 2019년 한국언론진흥재단 미디어연구센터의 온라인 설문조사에 따르면 네이버를 통해 뉴스나 시사정보를 접한다고 응답한 비율이 62.8%로 월등히 높았고 다음이 19.4%, 유튜브가 5.3%로 뒤를 이었다. 사람들이 뉴스를 가장 많이 소비하고 있는 양대 포털사이트 카카오 다음과 네이버의 뉴스 편집 알고리즘을 들여다봤다.

사람 대신 AI가 뉴스 편집
다음 뉴스의 경우 사용자별 맞춤형 콘텐츠 추천 시스템 ‘루빅스(RUBICS)’를 통해 자동으로 기사를 배치한다. 이후 ‘뉴스 서비스 원칙’과 ‘인터넷뉴스서비스사업자의 기사 배열에 관한 자율규약’에 따라 모니터링이 이뤄진다. 카카오는 2015년부터, 네이버는 2018년부터 AI(인공지능) 뉴스 편집 기술을 도입했다.

과거에는 하루 3만여 개씩 출고되는 기사를 뉴스 에디터들이 체크하고 정치, 경제, 사회 카테고리별로 분담해 편집 원칙에 따라 기사를 메인에 직접 배치했다. 그러다 2015년 6월부터는 뉴스를 자동으로 수집한 뒤 중복 문서나 어뷰징 문서, 서비스 원칙에 반하는 문서를 걸러내고 이후 남은 기사를 루빅스 풀에 넣어 루빅스가 첫 화면에 기사를 자동 배치하는 방식으로 바뀌었다. 이 기사들은 카카오만의 알고리즘을 통해 개인 맞춤형으로 추천되기에 카카오톡 채널, 포털사이트 다음 등에 사람마다 다른 기사가 뜬다.

9월 14일 휴대전화와 노트북컴퓨터 익스플로러와 크롬, 동료의 휴대전화 등으로 다음 메인 화면에 접속해보니 모두 다른 뉴스 화면이 떴다. 몇 차례 새로 고치자 비슷한 뉴스가 떴지만, 완벽하게 같은 화면은 나오지 않았다.

앞서 윤 의원이 문제 삼은 건 ‘국민의힘 주호영 원내대표 연설은 다음 메인에 바로 뜨는데 더불어민주당 이낙연 대표의 연설은 메인에 뜨지 않았다’는 점이다. 그러나 이는 사실과 달랐다.

다음 뉴스 최하단에서 그날의 뉴스 배열 이력을 확인할 수 있다. [다음 캡처]
다음 뉴스 최하단에서 그날의 뉴스 배열 이력을 확인할 수 있다. [다음 캡처]
카카오는 홈페이지 최하단에 뉴스 배열 이력을 확인할 수 있는 메뉴를 제공한다. 9월 7일자 배열 이력에는 ‘이낙연, 오늘 첫 교섭단체 대표연설 “코로나 넘어 국가 비전 제시”’(뉴스1), ‘[현장연결] 이낙연 첫 교섭단체 대표 연설 ‘코로나 극복’ 강조’(연합뉴스TV), ‘이낙연 “고통 더 큰 국민 먼저 돕는 것이 연대이자 공정”’(연합뉴스) 등의 기사가 메인에 올라온 기록이 남아 있었다. 기사가 메인에 노출은 됐으나 윤 의원에게는 뜨지 않았거나 그가 보지 못했던 것이다.

카카오 관계자는 “응용분석 엔지니어들이 루빅스 기본 알고리즘을 설계, 개발하고 뉴스 에디터들은 루빅스 기본 풀을 관리한다”며 “AI 편집 초창기에는 사람이 선별하기도 했지만 이제 검수 인력을 제외하고는 알고리즘이 기사 배치를 전담하고 있다”고 말했다. 이어 그는 “향후 언론사 기사를 비롯해 블로그, 카페 글 등 다양한 콘텐츠를 ‘구독’ 형태로 볼 수 있게 해 소비자가 원하는 정보를 얻을 수 있는 식의 변화를 고려하고 있다”고 밝혔다.

네이버는 “뉴스 배치와 관련해 사람이 관여하는 부분은 하나도 없다”는 입장이다. 네이버 관계자는 “뉴스 서비스는 전적으로 각 언론사가 직접 편집하고, 개인화 영역은 AI 기반의 추천 시스템 AiRS(AI Recommender System·에어스)를 통한 추천으로 이뤄진다”며 “과거에는 뉴스 에디터가 있었으나 지금은 해당 업무를 하던 사람 모두가 다른 팀에서 일하고 있다”고 말했다. 네이버가 2019년 4월 4일 이후로 뉴스 배열 이력을 공개하지 않는 이유도 뉴스 배열 방식이 아예 바뀌었기 때문이다.

네이버 뉴스에서 모바일 메인인 언론사 구독 영역은 언론사가 직접 선정한 뉴스로 배열되고, 언론사가 직접 편집한 영역을 제외한 메인과 뉴스홈, 섹션별 뉴스는 모두 기계적 알고리즘을 적용해 배열하고 있다.

네이버로 전송된 기사는 자체 기술을 통해 일정한 간격으로 클러스터(유사 기사 묶음)를 만들어내고, 이 클러스터의 제목은 기사 제목과 본문에서 추출된 단어들의 조합으로 만들어진다. 에어스 알고리즘에 따르면 평소 이용자의 콘텐츠 소비 성향 및 관심사에 따라 추천되는 클러스터링 주제와 순서, 각 클러스터링의 대표 기사가 모두 다르게 나온다. 로그인하지 않고 접속하면 다수의 관심사에 근거한 상위 클러스터링 기사가 뜬다.

알고리즘 중립성은 의문

양 사 모두 뉴스 배열을 AI가 하는 건 사실이었다. 다만 이러한 AI 뉴스 편집 알고리즘이 사람의 뉴스 편집보다 객관적이고 공정한가에 대해서는 여전히 의문이 남는다.

알고리즘은 빅데이터를 토대로 작동한다. 알고리즘의 자동 뉴스 배열 자체에 대한 이용자의 전반적인 인식은 나쁘지 않은 편이다. 2019년 한국언론진흥재단 미디어연구센터 온라인 설문조사에 따르면 알고리즘의 자동 뉴스 배열에 대해 ‘내가 필요한 정보를 담은 뉴스만을 볼 수 있을 것 같아 좋다’(75.8%)면서도 ‘내가 선호하는 뉴스만 보게 돼 중요한 뉴스를 놓칠까 걱정된다’(72.9%)고 답했다.

또한 AI 알고리즘과 전문가(언론인, 편집자 등)가 각각 뉴스나 시사 정보를 배열할 경우 저널리즘 가치들(공정성, 다양성, 정확성, 심층성, 투명성)을 기준으로 할 때 어느 쪽이 해당 가치를 더 잘 구현할 것 같은지를 묻자 ‘심층성’을 제외한 나머지 모두를 AI 알고리즘이 더 잘 구현할 것이라고 응답했다.

전체적으로 봤을 때 AI 알고리즘과 전문가의 기사 배열 중에서는 응답자의 70%가 AI 알고리즘을 더 신뢰한다고 답했다. 또한 학력 수준이 높을수록 AI 알고리즘을 더 신뢰하며, 진보 성향(73.5%)이 보수 성향(63.6%)보다 AI 알고리즘을 더 신뢰한다는 결과도 나왔다.

더불어민주당 윤영찬 의원이 9월 8일 국회에서 휴대전화로 메신저 대화를 주고받고 있다. [동아일보DB]
더불어민주당 윤영찬 의원이 9월 8일 국회에서 휴대전화로 메신저 대화를 주고받고 있다. [동아일보DB]
하지만 AI라고 완벽한 건 아니다. 영국의 경우 비자 승인 결정을 내리는 데 사용해오던 AI 알고리즘 시스템이 인종 편향적이라는 비판이 이어지자 AI 알고리즘 시스템 사용 중단 의사를 밝혔다. 페이스북은 꾸준히 플랫폼 내부적으로 불거진 인종 차별 문제를 해결하고자 기존 알고리즘을 개선하기 위한 전담 TF(태스크포스)팀을 꾸리기도 했다.

카카오의 전신 다음을 창업한 이재웅 전 쏘카 대표는 페이스북을 통해 AI의 뉴스 편집 중립성 문제를 언급했다. 이 전 대표는 9월 8일 자신의 페이스북에 올린 글에서 ‘국회의원이 마음에 안 드는 뉴스가 메인에 올라왔다고 바로 포털 담당자를 불러서 강력히 항의하는 것은 문제’라면서도 ‘하지만 과연 뉴스 편집을 AI가 전담하면 뉴스의 중립성은 괜찮은 걸까’라고 의문을 제기했다.

이 전 대표는 ‘많은 사람이 AI는 가치중립적이라고 생각하지만 그렇지 않다. 규칙 기반의 AI는 그 시스템을 설계하는 사람의 생각이 반영될 수밖에 없다’며 ‘인공지능은 우리가 설계한 대로 혹은 우리의 현상을 반영해서 판단할 가능성이 높지 AI라고 해서 가치중립적으로 판단하지 않는다. 그래서 AI 시스템이 차별하지 않는지, 정치적으로 중립적인지 판단하기 위한 감사 시스템이 필요하다’고 밝혔다.

한국인공지능법학회 회장인 고학수 서울대 법학전문대학원 교수는 “인공지능을 논할 때 애초에 ‘중립적’이라는 말을 쓰는 건 어불성설”이라며 “알고리즘을 사람이 설계하고, 설령 사람이 설계하지 않더라도 이 사회를 반영하기 때문”이라고 말했다.

“예를 들어 남녀 차이에 대한 알고리즘을 무작정 짤 경우 과거 데이터(사회에서 여자의 사회 활동이 적고 승진이 적어 임금도 낮은 상황)가 반영되니 결과적으로 여성에게 불이익을 주는 알고리즘이 나올 수밖에 없어요. 이런 알고리즘을 ‘중립적’으로 만든다는 것 자체가 불가능합니다.”

그렇다면 각 포털사이트가 자사의 알고리즘을 투명하게 공개하면 상황이 좀 달라질까. 고 교수는 “오히려 악용될 소지가 크다”며 신중한 입장을 보였다. 그는 “전자상거래로 치면 물건이 상위에 노출되는 알고리즘을 알 경우 판매자들이 그 부분을 노려 악용할 소지가 있고, 언론사의 경우라면 알고리즘에 맞춘 기사만 쏟아질 가능성도 있다”고 말했다. 이어 “알고리즘 시스템을 제대로 이해하고 모든 알고리즘에는 편향성이 있을 수 있음을 파악한 뒤, 그것에 기초해 자료를 수용하고 판단을 내려야 할 것”이라고 강조했다.

구희언 기자 hawkeye@donga.com

〈이 기사는 주간동아 1258호에 실렸습니다〉


  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스