“카카오 등서 실증후 민관에 배포 딥페이크 영상범죄 피해 줄일 것”
지난해 설립된 정부 산하 인공지능(AI)안전연구소가 실시간 딥페이크(AI 합성 이미지) 탐지 기술 개발에 착수했다. 중앙선거관리위원회를 비롯한 정부 부처, 공공기관, 민간에 오픈소스로 배포해 딥페이크 영상 범죄 피해를 줄이겠다는 것이다.
14일 정보기술(IT) 업계에 따르면 과학기술정보통신부 산하 AI안전연구소는 딥페이크 탐지 기술 고도화 프로젝트를 진행 중이다. 딥페이크로 만든 영상 속 사람의 웃을 때 입 모양이나 귀의 움직임, 눈 깜빡임처럼 신체 움직임이 부자연스럽거나, 물이 흐르는 방향과 그림자 방향 등 물리적 법칙에 어긋나는 부분 등을 탐지하는 기술을 고도화하는 것이다.
특히 딥페이크 생성물을 실시간 탐지하는 속도를 높이는 것이 핵심이다. 가령 3분 길이의 영상일 경우 최소 영상이 끝나기 전에 해당 영상이 딥페이크인지 아닌지 가려내 이용자에게 경고를 주는 식이다. 어느 부분이 조작된 장면인지를 시각적으로 보여주는 방식도 개발 중이다.
광고 로드중
선관위와 경찰 등은 6·3 대선을 앞두고 전담 모니터링 팀을 구성해 주요 후보자 관련 딥페이크 영상 단속을 벌이고 있다. 지난해 개정된 공직선거법에 따르면 선거 90일 전부터 선거운동 관련 딥페이크 영상은 일절 금지된다. 음란물에 합성한 경우 성폭력처벌법 위반으로 7년 이하 징역 또는 5000만 원 이하 벌금에 처해질 수 있다.
장은지 기자 jej@donga.com