[횡설수설/황인찬]증오 부추긴 페북

  • 동아일보
  • 입력 2021년 10월 27일 03시 00분


코멘트
페이스북 이용자는 하루 평균 14번 정도 접속한다고 한다. 이용자들이 페이스북에 빠져드는 것은 게시물을 올리거나 ‘좋아요’ ‘댓글’이 달릴 경우 이른바 ‘쾌락 호르몬’이라 불리는 도파민이 신체에 분비되기 때문이란 분석도 있다. 페이스북 부사장을 지낸 차마트 팔리하피티야는 페이스북을 “도파민에 의해 작동하는 단기 피드백의 순환 고리”라고 했다.

▷페이스북 전 직원인 프랜시스 하우건은 25일 영국 의회 청문회에서 “페이스북은 사람을 극단으로 몰아넣고 증오를 부채질한다”며 “중도 좌파는 극좌파로, 중도 우파는 극우파가 되도록 부추긴다”고 증언했다. 페이스북의 알고리즘이 이용자에게 더 자극적이고, 폭력적인 콘텐츠를 노출시켜 극단주의를 키운 반면 이를 차단할 안전 조치엔 소홀했다는 것이다. 그는 페이스북이 의도적으로 유명인의 인종 혐오 발언이나 가짜 뉴스를 지우지 않았고, 자회사 인스타그램도 청소년 자살률을 높이는 유해 게시물을 방치했다고 폭로했다.

▷사람들은 본인의 선택에 따라 페이스북을 이용한다고 생각하기 쉽지만 실제로는 치밀하게 계산된 알고리즘이 골라주는 콘텐츠에 주로 노출되고 있다. 페이스북은 친밀도, 시의성, 가중치 등을 고려해 추천 콘텐츠를 이용자들의 눈에 쉽게 띄는 페이지 상단에 노출시키고 있다. 그런데 이런 알고리즘이 클릭 수를 높여 수익을 극대화하는 데에만 초점이 맞춰져 증오와 대립, 그리고 분열을 일으키는 극단적인 내용이 잘 걸러지지 않는다는 것이 문제다.

▷페이스북은 2019년 인도에서 가상의 21세 여성 계정을 만들어 3주간 알고리즘 실험을 했다. 그 결과 추천 콘텐츠에 참수당한 시체나 인도의 파키스탄 공습 등 폭력적인 내용, 가짜 뉴스가 다수 포함됐다. 당시 보고서 작성에 참여했던 한 직원은 “3주 동안 죽은 사람의 사진을 평생 본 것보다 많이 봤다”고 털어놓기도 했다. 이런 내용은 내부 문건을 확보한 외신 보도를 통해서 23일 공개됐다. 뉴욕타임스(NYT)는 “페이스북이 이용자들에게 큰 악영향을 미친다는 근거”라고 지적했다.

▷미국 하원에서 최근 ‘악성 알고리즘 방지법’이 발의된 것도 이런 위기의식 때문일 것이다. 알고리즘이 추천한 콘텐츠로 물리적, 정신적 피해를 입으면 플랫폼이 책임져야 한다는 내용을 담았는데 특히 페이스북의 폐해를 더 이상 두고 볼 수 없다는 판단이 컸다. 영국 의회도 비슷한 규제 검토에 들어갔다. 페이스북은 “알고리즘을 결코 악의적으로 사용하지 않는다”고 하지만 이제는 이런 말을 그대로 믿기 어려운 상황이 됐다. 기업 윤리를 저버린 회사는 결국 외면받을 수밖에 없다.

황인찬 논설위원 hic@donga.com
#페이스북#증오#부추김
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스