읽기모드공유하기
동아일보|오피니언

[인사이드&인사이트]“포털 ‘AI 기사 추천’ 편향 여전”… 정치권, 뉴스서비스 수술 예고

입력 2022-05-18 03:00업데이트 2022-05-18 03:12
글자크기 설정 레이어 열기 뉴스듣기 프린트
글자크기 설정 닫기
네이버-카카오 개편 움직임
전남혁 산업1부 기자
《“네이버·카카오가 알고리즘이라는 ‘가면’ 뒤에서 자신들의 이익을 챙기고 있다는 비판을 받고 있다.”(2일, 박성중 당시 대통령직인수위원회 과학기술교육분과 간사)

정치권이 뉴스를 편집 및 배열하고 추천하는 포털의 인공지능(AI) 알고리즘을 정조준하고 나섰다. 인간 편집자의 공정성 시비가 끊이지 않아 AI에 의한 뉴스 추천이 도입됐지만 알고리즘의 편향성 문제 역시 제기되면서 전면 개편에 나선 것이다.

박성중 국민의힘 의원은 2일 ‘뉴스 서비스의 신뢰성·투명성 제고를 위한 국정과제’를 발표하며 “알고리즘이 ‘사람의 편집’보다 어쩌면 더 위험한 결과를 초래할 수도 있다”며 “전문가 중심의 ‘가칭 알고리즘 투명성위원회’를 법적 기구로 포털 내부에 설치하도록 하겠다”고 밝혔다. 지난달 더불어민주당도 포털의 뉴스편집권 제한을 골자로 하는 정보통신망법 개정을 당론으로 채택하고 입법에 속도를 내고 있다. 어떠한 방향성이 채택되든, 현 포털 뉴스 서비스의 ‘대격변’이 예고돼 있는 상황이다.》

○ 포털 측 “사람 개입 없다”지만 AI가 가지고 있는 ‘편견’도 문제


포털 뉴스 서비스에 대한 문제제기는 어제오늘 일이 아니다. 2000년대 초반 야후, 네이버, 다음, 네이트 등 주요 포털 사이트들이 뉴스 서비스를 시작한 이후 한동안 ‘사람의 편집’을 통한 포털의 뉴스 편집 및 추천이 중심을 이루자 인위적인 조작 및 편향성 문제가 제기됐다. 2017년 한국프로축구연맹은 네이버 고위 담당자에게 연맹에 대한 비판 기사를 잘 안 보이는 곳에 배치해 달라는 ‘기사 재배치’ 요구를 했고, 이 요청이 일부 받아들여진 사실이 드러났다. 2018년 네이버 등 포털 사이트에서 인기검색어와 댓글창을 이용한 전면적 여론 조작을 일으킨 ‘드루킹 사태’ 이후 네이버 한성숙 전 대표는 “네이버가 더 이상 뉴스편집을 하지 않겠다”고 공언했다.

이에 2017년부터 부분적으로 시행 중이던 AI 시스템 ‘에어스(AiRS·AI Recommender System)’ 알고리즘에 기반한 뉴스 편집이 확대됐고, 2019년 4월 자체 편집영역이 완전히 없어졌다. 카카오는 네이버보다 앞선 2015년부터 자체 AI 추천 기술을 활용해 다음 포털에서 뉴스를 추천하고 있다.

네이버와 카카오 측은 인간의 인위적인 개입이 불가능한 구조라고 설명한다. 네이버와 카카오는 AI 기반의 콘텐츠 추천 시스템을 뉴스 추천과 편집에 이용하고 있다. 기계학습과 딥러닝 기반의 기술을 통해 개인의 뉴스 소비 패턴을 학습하고, 이용자가 관심을 가질 만한 뉴스를 자동으로 예측해 추천하는 것이다. 네이버 에어스 알고리즘은 기사의 콘텐츠 특성과 사용자의 클릭 수, 체류 시간 등 사용자의 피드백을 고려하는 QE(Quality Estimation) 모델로 품질을 예측한다. 카카오도 콘텐츠가 얼마나 사용자의 클릭을 유도했는지에 대한 ‘클릭률’뿐만 아니라 본문에서의 체류 시간을 나타내는 ‘열독률’을 고려해 뉴스를 추천한다.

하지만 알고리즘의 설계와 구축 작업은 사람이 진행하는 것이기 때문에 여전히 중립성을 담보할 수 없다는 문제가 꾸준히 지적돼 왔다. 김장현 성균관대 인터랙션사이언스학과 교수는 “AI는 어떤 데이터를 입력했느냐에 따라 결과값이 달라질 수 있다”며 “처음부터 편향성을 가지고 데이터가 수집된다면 결과도 치우침이 나타날 수밖에 없다”고 말했다.

실제 알고리즘을 조작하거나, 알고리즘 자체에 편향성이 녹아든 사례도 있다. 2020년 공정위는 네이버가 쇼핑, 동영상 검색 알고리즘을 임의로 조정해 자사 상품과 서비스를 우선 노출했다고 판단하고 네이버에 시정명령과 함께 과징금 267억 원을 부과했다. 세계적으로도 ‘알고리즘의 편견’ 사례를 찾기는 어렵지 않다. 2014년 아마존은 과거 10여 년간의 자료를 바탕으로 이력서를 검토하는 AI 채용 시스템을 개발했는데, 기존 데이터에 남성 합격자가 더 많았던 터라 시스템은 여성 채용자를 부정적으로 평가했다. 결국 이 시스템은 4년 뒤인 2018년 폐기됐다. 2016년에는 미국 일부 주 법원에서 피고의 재범 가능성을 계산해 구속 여부를 추천하는 데 이용되는 AI ‘콤파스’가 흑인의 재범 가능성을 백인보다 높게 평가하기도 했다.

○ 특정 시각에만 갇히는 ‘필터버블’ 문제도

기계가 편견을 학습하고 이를 그대로 노출한 사례가 나오면서 알고리즘이 어떻게 구축되고 작동되는지를 공개하라는 요구가 나오고 있다. 포털은 구체적인 알고리즘을 공개하라는 요구에 대해서는 ‘영업비밀’이라는 입장이지만, 그 작동 방식과 원리에 대해서는 꾸준한 설명과 해석을 내고 있다. 알고리즘의 윤리적 운영 원칙을 공개하고, 외부 집단에 알고리즘 검증을 받으며 편향성 우려를 제거하려는 노력도 이뤄지고 있다.

네이버는 2018년부터 올해까지 2번에 걸쳐 외부 전문가로 구성된 ‘뉴스 알고리즘 검토 위원회’를 발족해 검증을 받고 그 결과를 공개하고 있다. 카카오는 알고리즘 결과에서 특정 가치를 편향하지 않고, 특정 의도에 의해 훼손되거나 왜곡될 가능성을 차단하며, 사회적 취약계층의 편익을 증진하겠다는 내용의 ‘알고리즘 윤리헌장’을 발표한 바 있다.

기사를 많이 노출한 언론사를 우선순위에 놓는 AI의 추천이 소수의 관점을 비교적 등한시하며 이용자를 좁은 시각에만 가둔다는 ‘필터버블’에 대한 우려도 나온다. AI는 송고된 기사 수, 송고 시점, 최신성 등을 따지기 때문에 특정 언론사가 기사의 질과 관계없이 ‘물량 공세’를 벌일 경우 ‘결과적 편향성’이 발생할 우려가 있다는 것이다.

실제 올해 초 외부 전문가로 구성된 제2차 네이버 알고리즘 검토위원회는 작년 8월부터 올해 1월까지의 네이버 뉴스에 대한 검토 결과를 발표하며 “뉴스 검색·추천 알고리즘 작동과 관련해 언론사의 이념과 성향을 분류하여 우대하거나 제외하는 요소는 찾아볼 수 없었다”면서도 “(알고리즘 작동은) 송고된 기사 수, 송고 시점 및 기사의 최신성 등 뉴스 생산과 관련된 활동과 더 관련이 높다”고 밝혔다.

필터버블 문제와 관련해서는 “예를 들어 오전 시간에 온라인 대응이 가능한 언론사 및 계열사가 중복 노출되고, 이것이 추천 선호도에 반영되는 상황이 장기간 지속된다면, 사회적인 수준에서는 장기간에 걸친 필터 효과가 나타날 수 있다”고 밝혔다.

포털 뉴스 서비스가 시작된 지 20여 년, 국민 10명 중 약 8명이 뉴스를 포털로 소비하고 있다. 뉴스 전달자로서 포털의 영향력이 크다는 것은 부정할 수 없는 사실이다. 알고리즘이라는 기업의 영업비밀을 침해하지 않으면서도 공정하고 중립적인 뉴스 소비라는 가치를 구현할 묘안이 필요한 시점이다.

전남혁 산업1부 기자 forward@donga.com
당신이 좋아할 만한 콘텐츠
댓글 0
닫기
많이 본 뉴스
오피니언
베스트 추천