[신문과 놀자!/어린이과학동아 별별과학백과]AI가 만든 가짜뉴스에 깜짝… 진짜 뉴스와 어떻게 구별할까

  • 동아일보
  • 입력 2019년 10월 16일 03시 00분


코멘트
지난해 4월 버즈피드(Buzzfeed)가 공개한 버락 오바마 전 미국 대통령(58)의 딥페이크 영상 속 장면. 실제는 미국의 영화감독 조던 필(오른쪽)의 얼굴 움직임을 본떠 합성한 것이다. 버즈피드 제공
지난해 4월 버즈피드(Buzzfeed)가 공개한 버락 오바마 전 미국 대통령(58)의 딥페이크 영상 속 장면. 실제는 미국의 영화감독 조던 필(오른쪽)의 얼굴 움직임을 본떠 합성한 것이다. 버즈피드 제공
‘ThisPersonDoesNotExist.com(이 사람은 존재하지 않아요)’라는 사이트에선 세상에 없는 사람의 얼굴을 만들어낼 수 있습니다. 그 비결은 ‘딥러닝’ 덕분인데, 2016년 알파고와 이세돌의 바둑 대국으로 유명해진 기계 학습방법을 말합니다. 인간의 정보처리 과정을 본뜬 인공신경망을 사용하죠. 2014년 구글의 컴퓨터 과학자 이언 굿펠로는 딥러닝 기술 중 하나인 ‘적대적 생성망(GAN)’을 개발했습니다. ‘ThisPersonDoesNotExist.com’ 사이트의 가짜 얼굴도 모두 적대적 생성망을 이용한 결과죠.

적대적 생성망은 크게 ‘생성망’과 ‘판별망’이라는 두 개의 구조로 이뤄져 있습니다. 생성망이 데이터를 만들면 판별망이 데이터가 진짜인지 판단합니다. 가짜 얼굴을 예로 들면 생성망은 수많은 얼굴 데이터를 학습한 뒤 얼굴과 비슷한 이미지를 만듭니다. 그러면 판별망은 생성망이 만든 얼굴 이미지가 진짜인지 판단하죠. 즉, 생성망은 가짜 얼굴을 만드는 위조범 역할을, 판별망은 가짜를 가려내는 경찰관 역할을 하는 거예요. 이름에 ‘적대적’이라는 표현이 들어간 이유도 생성망과 판별망이 서로 경쟁하기 때문입니다. 이렇게 생성망과 판별망이 경쟁하면서 점점 그럴듯한 얼굴이 만들어집니다. 나중에는 사람이 구별하기 힘들 정도로 진짜 같은 얼굴을 만들 수 있답니다.

적대적 생성망 기술로 얼굴뿐 아니라 만화 캐릭터, 글씨체, 심지어 목소리나 표정을 따라 하는 가짜 동영상도 만들 수 있습니다. 지난해 4월 미국의 온라인 언론인 버즈피드는 미국 전 대통령 버락 오바마의 모습이 들어간 1분짜리 영상을 올렸습니다. 이 영상에서 버락 오바마가 미국의 현 대통령인 도널드 트럼프를 ‘한심한 사람’이라고 욕하면서 큰 논란을 빚었죠. 사실 이 영상은 버락 오바마의 사진에 다른 사람의 얼굴을 적대적 생성망 기법으로 합쳐 만들었답니다. 이렇게 딥러닝 기술로 가짜 영상을 만드는 기법을 ‘딥페이크(deep fake)’라고 합니다. 버즈피드 측은 딥페이크 영상으로 만들어진 가짜뉴스의 위험성을 경고하기 위해 이 영상을 만들었다고 밝혔습니다.

○ 왜 거짓말은 진실보다 빨리 퍼질까?


인터넷으로 퍼지는 거짓말의 대표적인 예는 ‘가짜뉴스’입니다. 뉴스처럼 보이지만 사실이 아닌 내용을 담죠. 가짜뉴스는 도널드 트럼프 미국 대통령이 후보로 나왔던 2016년 미국 대선 이후 세계적으로 널리 퍼졌습니다. 한국에서는 지난해 제주도에 온 예멘 난민에 대한 가짜뉴스가 퍼지면서 논란을 낳기도 했죠.

가짜뉴스는 정치와 의료 연예 등 사회 전 영역에 심각한 영향을 끼치고 있습니다. 한 예가 바로 ‘백신 음모론’입니다. 백신 음모론은 1998년 영국의 의사 앤드루 웨이크필드가 ‘어린이들이 맞는 홍역·볼거리·풍진(MMR) 백신이 자폐증을 일으킨다’는 내용의 논문을 발표하면서 시작됐습니다. 이후 논문 조작 사실이 발견됐지만 가짜뉴스는 여전히 인터넷을 통해 떠돌아다녔습니다. 그 결과 백신을 맞지 않는 사람들이 늘어나 MMR 백신으로 예방할 수 있는 홍역이 다시 퍼졌죠. 실제로 2016년 미국의 홍역 환자 수는 86명이었지만, 지난해 349명으로 증가했답니다.

지난해 3월 미국 매사추세츠공대(MIT) 미디어랩의 소로시 보수기 교수팀은 소셜네트워크서비스(SNS) 트위터에서 퍼진 뉴스를 분석해 ‘가짜뉴스가 진짜 뉴스보다 빨리 퍼진다’는 연구 결과를 발표했습니다. 연구팀은 2006년부터 2017년 사이 트위터를 이용한 300만 명의 사람들이 공유한 뉴스 12만6000개를 모았습니다. 이후 언론기관 6곳의 도움을 받아 이 뉴스들을 진짜와 가짜로 분류했죠. 그 결과 가짜뉴스를 공유한 횟수는 진짜 뉴스보다 약 70% 이상 높게 나타났습니다.

그렇다면 왜 가짜뉴스가 더 빨리 퍼졌을까요? 연구를 이끈 데브 로이 교수는 “가짜 뉴스가 새롭고 자극적인 정보를 더 많이 가지고 있기 때문”이라고 해석했습니다. 새롭고 선정적인 이야기를 좋아하니, 그러한 내용을 담은 가짜뉴스도 더 널리 공유된 거죠.

○ 거짓말에 속지 않는 법!

다행히 아직은 그럴듯한 딥페이크 영상을 만들기가 쉽지 않습니다. 특정 인물의 영상을 만들려면 그 사람의 모습이 담긴 데이터가 많이 필요한 데다 영상을 만드는 데도 오랜 시간이 걸리기 때문입니다.

대부분의 딥페이크 영상은 조금만 주의를 기울이면 분간해낼 수 있습니다. 미국 뉴욕주 올버니대 컴퓨터과학부의 류시웨이 교수는 ‘눈 깜빡임’ 방법을 제시했습니다. 사람은 보통 대화하면서 2∼10초에 한 번씩 눈을 깜빡입니다. 그런데 딥페이크로 만들어진 가짜 영상에 등장하는 인물은 눈을 거의 깜빡이지 않습니다. 등장인물이 눈을 깜빡이지 않는다면 조작된 영상으로 추측할 수 있는 거죠.

하지만 아쉽게도 가짜뉴스를 완전히 막아주는 기술은 아직 개발되지 않았습니다. 가짜뉴스를 만들거나 퍼뜨리는 사람들을 법으로 규제할 수도 있지만, 법이 만들어지고 자리를 잡으려면 많은 시간이 필요하죠. 그래서 유튜브나 TV 등에서 나오는 뉴스가 진짜인지 가짜인지 스스로 판단할 수 있는 능력이 필요합니다. 이를 ‘미디어 리터러시’라 하죠. 중요한 뉴스라고 생각하면 그 내용의 출처를 알아보고 신뢰성 있는 언론에서 같은 내용을 다시 확인해 보는 겁니다. 간단하지만 이런 과정을 통해 가짜뉴스를 걸러낼 수 있답니다.

이창욱 어린이과학동아 기자 changwooklee@donga.com
#인공지능#ai#가짜뉴스
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스