메타의 신고 건수가 상대적으로 적은 것은 방심위 제공 해시 기반 자동 탐지·차단 시스템을 운영하기 때문으로, 2024년 한 해 3933건의 콘텐츠를 삭제하고 20만4915건의 콘텐츠를 국내에서 차단한 것으로 보고됐다.
신고 사유별로는 성적 불법촬영물이 2023년 10만4386건, 2024년 14만8480건으로 가장 많았다. 아동·청소년 성착취물은 2023년 2만9279건에서 2024년 5만3489건으로 급증했으며, 특히 성적 허위영상물(딥페이크)은 2023년 8619건에서 2024년 1만8417건으로 2배 이상 증가했다.
신고 주체는 2024년 기준 피해자 등 개인 신고가 9만5839건, 기관·단체 신고가 12만5247건으로 집계됐다.
2년간 삭제·접속차단 조치는 30만1743건으로, 삭제·차단 비율은 2023년 70.67%에서 2024년 81.22%로 상승했다. 방미통위는 신고 대비 삭제 건수 차이에 대해 중복신고, 불법촬영물 미해당, 이미 삭제된 사례 등이 포함된 결과라고 설명했다.
그러나 심각한 문제는 심의 인력 부족이다. 방송미디어통신심의위원회 통신심의 건수는 2008년 2만9000건에서 2024년 35만6000건으로 12배 급증했지만, 심의 인력은 21명에서 43명으로 2배 증가에 그쳤다. 이에 따라 1인당 처리 건수는 8301건으로 6배 이상 과부하 상태다.
올해 10월 심의 대기 건수만 16만8000건에 달하며, 이 중 도박 관련 6만7000건, 불법 식·의약품 1만 건, 음란·성매매 2만7000건 등 국민 피해가 큰 사안들이 적체돼 있다.
현행 법체계의 한계도 지적됐다. 독일과 호주 등은 불법정보를 통지받은 플랫폼에 24시간 이내 삭제 의무를 부과하고, 미이행 시 매출의 6~10% 과징금을 부과할 수 있다.
반면 한국은 국내 사업자에 대해서는 삭제·이용해지 등 시정요구가 가능하지만, 해외 플랫폼에는 국내망 사업자를 통한 접속차단과 시정요청 협조만 가능해 제재 실효성이 떨어진다는 지적이다.
최수진 의원은 “플랫폼의 투명성보고서 의무를 형식적인 공개 수준에 그치지 않고 실질적 관리·감독 기준으로 강화해야 한다”며 “심의 자동화·AI 탐지 강화·해외사업자 제재 근거 마련이 시급하다”고 강조했다. 또 “국민 피해가 몇 달씩 지연되는 현실을 개선하기 위해 신속조치 체계 구축과 임시조치 제도 확대를 검토해야 한다”고 덧붙였다.
댓글 0