광고 로드중
한국 사회에서 유튜브는 전통 미디어의 대안으로 떠올랐다. 특히 유튜브가 정치적 담론 형성의 중요한 장이 되면서 정치적 성향에 따라 채널 양극화가 나타났고, 각 진영별로 서로 다른 사실과 해석이 공유되는 정보 생태계가 형성됐다. 이 같은 유튜브 기반 양극화는 단순한 기술적 현상이 아니다. 전통 미디어에 대한 불신, 정치적 갈등의 역사, 알고리즘의 특성 등 사회정치적 맥락과 기술의 상호작용이 낳은 복합적 현상이다. 유튜브 알고리즘은 체류시간, 클릭수 등 참여도를 우선시한다. 이 때문에 유튜브에서는 자극적이고 감정을 건드려 높은 참여도를 유발하는 허위정보가 빠르게 확산된다.
이처럼 허위정보가 유튜브에서 확산되는 현상은 ‘탈진실(post-truth)’ 시대의 주된 특징이다. 탈진실은 객관적 사실보다 감정과 개인적 신념이 여론 형성에 더 큰 영향을 미치는 현상을 뜻한다. ‘무엇이 사실인가’보다 ‘나는 무엇을 사실로 믿고 싶은가’가 더 중요해진다. 이런 환경은 합리적 토론과 공통의 사실 기반을 위협한다. 허위정보에 지속적으로 노출된 시민들은 정치적 냉소주의와 무력감을 경험하기 쉽다. 진실을 변별할 수 없다는 인식이 확산되면 정치 참여 의지는 약화된다. 또한 허위정보는 분노와 두려움 같은 감정을 자극해 합리적 판단과 숙의를 방해한다.
이런 허위정보 확산에 대응하고 유튜브 알고리즘이 민주주의에 미치는 부정적 영향을 완화하려면 알고리즘에도 변화가 필요하다. 가령 넷플릭스는 유튜브와는 다른 접근법을 보여준다. 넷플릭스의 경우 단기적 체류시간보다 장기적 사용자 만족도를 우선시하며 자극적인 콘텐츠보다는 다양하고 품질 높은 콘텐츠를 추천한다. 또한 넷플릭스 알고리즘은 콘텐츠 다양성을 명시적으로 고려하며 사용자가 평소 접하지 않는 장르도 일정 비율로 추천한다.
광고 로드중
알고리즘 투명성은 전문가들이 강조하는 핵심 대응 방안 중 하나다. 현재 대부분의 플랫폼은 알고리즘의 작동 원리를 영업 비밀로 간주하며 공개하지 않는다. 이를 해결하기 위한 방안으로는 코드 공개, 외부 감사, 설명 가능한 인공지능(explainable AI) 등이 있다. 코드 공개는 현실적으로 제약이 있으므로 독립된 제3자 기관에 의한 감사와 AI의 결정 과정을 사용자와 규제기관이 이해할 수 있도록 하는 접근이 필요하다.
사용자의 통제권 강화도 중요하다. 사용자는 알고리즘이 어떤 기준으로 콘텐츠를 추천하는지 알기 어렵고 조정 권한도 제한적이다. 추천 알고리즘의 다양성 수준이나 뉴스 출처 등을 사용자가 직접 설정할 수 있게 하고 자신의 데이터가 어떻게 활용되는지 명확히 알 수 있도록 해야 한다. 특히 디지털 문해력(digital literacy) 교육은 기술적 대응을 넘어 시민의 정보 역량을 높이는 데 중요하다. 디지털 문해력은 정보를 비판적으로 평가하고 알고리즘의 영향력을 인식하는 능력을 포함한다. 핀란드는 2014년부터 초중등 교육에 미디어 문해력과 비판적 사고를 포함했다. 이를 통해 학생들이 정보 출처 확인과 다양한 관점 비교 등을 배우면서 허위정보를 식별하는 능력을 함양하도록 해야 한다.
대안적 알고리즘 설계도 반드시 이뤄져야 한다. 현재 유튜브 알고리즘은 참여도를 기준으로 최적화돼 있다. 하지만 정보 다양성, 신뢰성, 사회적 영향 등을 고려한 새로운 알고리즘 설계도 가능하다. 일부 연구자는 민주주의, 다양성, 포용성을 고려하는 ‘공적 가치 알고리즘(public value algorithm)’을 제안하기도 한다.
마지막으로 기술 기업과 시민사회의 협력도 필요하다. 기술 기업은 알고리즘 설계와 운영에 더 큰 사회적 책임을 지고 시민사회는 감시와 참여를 통해 책임성을 강화해야 한다. 소셜미디어위원회 같은 다중 이해관계자 거버넌스 모델 도입도 고려할 만하다. 이런 모델을 통해 기업, 학계, 시민단체, 정부 등이 플랫폼 정책과 알고리즘 설계에 함께 참여하도록 유도하는 것도 방법이다.
광고 로드중
차경진 한양대 경영대 교수 kjcha7@hanyang.ac.kr
정리=김윤진 기자 truth311@donga.com