내년 한국 총선과 미국 대선 등 국내외 주요 선거를 앞두고 인공지능(AI) 기술을 악용한 허위 정보의 범람 가능성이 우려된다. 영상 이미지 음성 등을 합성해 조작하는 ‘딥페이크’ 기술이 AI와 함께 빠르게 진화하면서 이를 선거에 악용하려는 시도도 늘 것이란 얘기다. 2020년 미국 대선 때까지만 해도 제기되지 않았던 AI의 정치적 위협으로 정치권에 비상이 걸린 상황이다.
하루가 다르게 진화하는 생성형 AI는 비전문가도 상품화된 일반 프로그램을 이용해 쉽게 가짜 콘텐츠를 만들 수 있도록 하는 수준까지 와 있다. 본보가 전문가와 함께 이를 시도해본 결과 방송 뉴스 앵커의 목소리 그대로 허위 멘트가 만들어지는 데는 단 10초, 영상의 배경 이미지를 바꾸는 데는 1분밖에 걸리지 않았다. 기술적 한계들이 빠른 시간 내에 새 버전으로 보완되면서 진짜와 가짜의 판별이 극도로 어려워지는 것도 문제다.
이를 선거에 활용하면 선거 후보의 잘못된 공약 연설이나 인터뷰를 순식간에 만들어낼 수 있다. 상대 후보의 목소리를 조작해 허위 메시지를 ARS로 내보내고 선거 임박 시점에 후보 사퇴 회견을 하는 것처럼 뉴스를 조작하는 방식도 있다. 유명인이 특정 후보를 지지하는 것처럼 꾸며내 정치광고와 후원금 모집에 사용하는 것도 가능하다. 미국 등 해외에서 이미 문제가 되고 있는 사례들이다. 최근 펜타곤 폭발 사진 조작에서 보았듯 안보 불안을 부추김으로써 표심을 흔들려는 시도도 늘어날 것으로 전망된다.
내년 4월 총선을 치르는 우리나라도 예외가 아니다. 진보 대 보수, 기성세대와 청년세대, 젠더, 빈부 등으로 분열된 사회 갈등을 틈타 자극적인 허위 정보를 퍼뜨리려는 세력이 AI를 이용할 가능성이 우려된다. 그렇지 않아도 자극적 주장을 앞세운 강성 팬덤 정치의 폐해로 몸살을 앓고 있는 게 한국 정치권이다. SNS를 통한 콘텐츠 확산 속도도 어느 나라보다 빠르다. 유권자별로 정교하게 맞춰진 허위 정보들이 여론을 교란하고 선거 결과를 왜곡시켜 민주주의를 흔드는 결과로까지 이어질 위험이 있는 것이다.
이런 문제점에 제대로 대응하려면 선거일로부터 최소 1년 6개월 전에는 대응에 나서야 한다고 전문가들은 지적한다. 유럽연합(EU)의 경우 ‘AI 생성 콘텐츠’ 표시를 의무화하는 등 부작용을 막기 위한 AI규제법을 추진 중이다. 우리도 이미 늦은 만큼 해외 움직임을 참고해 가며 AI의 정치적 오남용을 막고 경각심을 키우기 위한 제도적 조치 마련을 서둘러야 한다. 의사 표현의 자유를 넘어 선거에 영향을 미치려는 의도적 조작, 왜곡 시도에는 강도 높은 책임 또한 물어야 할 것이다.
アクセスランキング