Go to contents

ディープフェイク音声、4人に1人は区別できない

ディープフェイク音声、4人に1人は区別できない

Posted August. 04, 2023 08:18,   

Updated August. 04, 2023 08:18

한국어

4人に1人は、生成型人工知能(AI)が作り出した偽の音声を判別できないという研究結果が出た。2日(現地時間)、英ユニヴァーシティ・カレッジ・ロンドン(UCL)の研究チームは、529人の参加者にディープフェイクの音声を聞かせた結果、73%だけが偽音声を見つけたと、世界的学術誌「フロスワン」に掲載した。

研究チームは、今回の実験で、英語と北京語の2言語で50個のディープフェイクの音声サンプルを製作した。英語でない他の言語の音声をディープフェイクで製作し、実験に活用したのは今回が初めてだ。それだけディープフェイク技術が精巧になったという意味だ。研究チームは、「今回の実験の参加者は、ディープフェイクで作られた音声が出てくる可能性があるという事実を知っていたにもかかわらず騙された」とし、「実際の状況では、さらに区分するのが難しいだろう」と話した。

ディープフェイクとは、本物と区分ができないほど精巧に作られた写真や映像、音声などを意味する。最近、AI技術が急速に発展し、ディープフェイクで作られたコンテンツが犯罪に悪用される事例が増えている。今年5月、中国ではある科学技術会社の法人の代表が金を貸してほしいという友人とビデオ電話後、8億ウォンを送金した事例があったが、友人の顔や声はすべてディープフェイクで作られた偽物だった。

研究チームは論文を通じて、「今回の研究は、ディープフェイクの音声の探知が難しく、誤って使用する可能性が高いことを示している。この脅威に対する防御が必要だ」と述べた。ディープフェイクの探知技術を開発している成均館(ソンギュングァン)大学のウサイモン・ソンイル教授は、「政府や企業共に、探知技術よりは生成型AI技術の開発に熱中している」とし、「探知技術もバランスを取って開発し、投資しなければならない」と強調した。


チェ・ジウォン記者 jwchoi@donga.com