“카카오 등서 실증후 민관에 배포
딥페이크 영상범죄 피해 줄일 것”
지난해 설립된 정부 산하 인공지능(AI)안전연구소가 실시간 딥페이크(AI 합성 이미지) 탐지 기술 개발에 착수했다. 중앙선거관리위원회를 비롯한 정부 부처, 공공기관, 민간에 오픈소스로 배포해 딥페이크 영상 범죄 피해를 줄이겠다는 것이다.
14일 정보기술(IT) 업계에 따르면 과학기술정보통신부 산하 AI안전연구소는 딥페이크 탐지 기술 고도화 프로젝트를 진행 중이다. 딥페이크로 만든 영상 속 사람의 웃을 때 입 모양이나 귀의 움직임, 눈 깜빡임처럼 신체 움직임이 부자연스럽거나, 물이 흐르는 방향과 그림자 방향 등 물리적 법칙에 어긋나는 부분 등을 탐지하는 기술을 고도화하는 것이다.
특히 딥페이크 생성물을 실시간 탐지하는 속도를 높이는 것이 핵심이다. 가령 3분 길이의 영상일 경우 최소 영상이 끝나기 전에 해당 영상이 딥페이크인지 아닌지 가려내 이용자에게 경고를 주는 식이다. 어느 부분이 조작된 장면인지를 시각적으로 보여주는 방식도 개발 중이다.
연구소는 기술 개발이 완료되면 카카오 플랫폼인 포털 다음과 카카오TV 등에서 검증 테스트를 거쳐 민관이 각 분야에 맞게 활용할 수 있도록 공개할 계획이다. 연구소 관계자는 “향후 실증을 거쳐 선관위, 경찰 등 정부 기관뿐 아니라 민간에도 오픈소스 형태로 배포할 예정”이라고 했다.
선관위와 경찰 등은 6·3 대선을 앞두고 전담 모니터링 팀을 구성해 주요 후보자 관련 딥페이크 영상 단속을 벌이고 있다. 지난해 개정된 공직선거법에 따르면 선거 90일 전부터 선거운동 관련 딥페이크 영상은 일절 금지된다. 음란물에 합성한 경우 성폭력처벌법 위반으로 7년 이하 징역 또는 5000만 원 이하 벌금에 처해질 수 있다.
장은지 기자 jej@donga.com
© dongA.com All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
댓글 0