今年7月、人工知能(AI)技術でわいせつ物を作成・流布したとして起訴された30代の男性が無罪判決を受けた。男性は通信アプリ「テレグラム」で入手した成人女性の顔写真をAIで合成し、わいせつ物を作成・流布した。性暴力処罰法上の虚偽映像物頒布の容疑、いわゆる「ディープフェイク処罰法」に基づくものだった。
無罪となったのは、ディープフェイク処罰法の抜け穴のためだ。弁護側は裁判で「(合成対象が)誰なのか分からない」とし、「実在人物ではなく、AIプログラムが生み出した仮想の人物の可能性がある」と主張した。ディープフェイク処罰法で処罰するには、わいせつ物の中の対象がその制作に反対の意思を持つことができる「人」でなければならない。ところが、実在の人物ではなくAIが作った人物であれば、そうした意思を示し得ないため、処罰できないという論理だ。
裁判所は「疑わしきは被告人の利益に」という法格言に従った。裁判所は「検察が提出した資料だけでは(被害者が実在するという)本件公訴事実が合理的疑いの余地なく証明されたとは言い難い」と判決文に記した。ただし同時に「写真や映像技術の発達により、実際の写真と合成写真の区別が難しくなっているのが現実」とし、技術の進歩による法的判断の難しさを吐露した。
この判決で注目すべき点はここだ。判決文を精査すると、被告人も裁判所も被害者が実在しないと断言したわけではない。実在する被害者がいる可能性も残っているということだ。捜査機関がその可能性を明確に立証できなかっただけだ。
そのため、不安な未来が頭をよぎる。ディープフェイク処罰法違反で裁判を受ける被告人たちが真実を無視して「被害者は実在人物ではない」という論理を掲げるということだ。能力と意志のある捜査官に事件が割り当てられなければ、このような事件では無罪が言い渡される可能性が高い。ディープフェイク処罰法を作っても使えない状況なのだ。
最近のある「虚偽電話」事件での米国の対応は、注目する必要がある。政治コンサルタントのスティーブン・クレイマー氏は昨年1月、AIで作成したバイデン前大統領の声を使って有権者に電話をかけ、投票に関する虚偽情報を拡散した。大統領選の候補者指名争いのさなかだった。捜査当局の追跡の末に逮捕されたクレイマー氏と弁護団は、電話の声が自らをバイデン前大統領と名乗っていないので、なりすましではないと主張した。陪審団はこれを受け入れた。性犯罪ではないが、AIを活用して社会秩序を乱しながらも無罪となった点で、前出の事件と共通している。
しかしクレイマー氏は喜んでばかりはいられなかった。米連邦通信委員会(FCC)はすでに600万ドル(約83億ウォン)の罰金を科していた。クレイマー氏が有権者にかけた電話に虚偽の発信者情報が含まれており、通信規定違反とされたのだ。刑事処罰は免れたが、行政規制を通じて責任を問われた事例だ。法律よりも犯罪がAIに近い世の中では、正攻法だけが対策ではないだろう。
アクセスランキング