今年7月,30多歲男性金某因利用人工智能技術製作並傳播淫穢物被移交審判,但被判無罪。金某把從社交媒體“電報”上獲取的成年女性的臉部照片合成人工智能,製作並傳播淫穢物。這屬於《性暴力處罰法》規定的涉嫌發佈虛假影像製品。通常也被稱爲“深度造假處罰法”。
他之所以被判無罪,是因爲深度造假處罰法存在漏洞。金某方面在審判過程中主張:“不知道(合成對象)是誰。有可能不是實際存在的人物,而是人工智能程序製造的假想人物。”要想通過深度造假處罰法進行處罰,淫穢物中的對象必須是能夠反對製作淫穢物的“人”。但如果不是實際人,而是人工智能生成的人物,就不能持有這樣的意見,不能進行處罰。
法庭遵循了“疑罪以被告利益爲重”的法律格言。法庭在判決書中指出:“僅憑檢察官提交的資料,難以證明該事件(存在受害者)的公訴事實是合理的懷疑。”不過,法庭表示,“現實是,隨着照片和影像技術的發展,難以區分真實照片和人爲合成照片”,吐露了技術發展帶來的法律判斷困難。
在此判決中,值得反覆思考的地方就是這裏。翻開判決書,被告人和法庭都沒有斷言受害者實際上不存在。也就是說,有可能存在實際存在的受害者。只不過,調查機關沒有明確證明這種可能性而已。
因此,筆者想起了不安的未來。因違反深度造假處罰法而接受審判的被告人無視真相,提出“受害者不是實際人物”的理論。如果不把案件交給有實力和意志的調查官,那麼這些案件很有可能被判無罪。也就是說,即使制定了深度造假處罰法,也無法運用。
在最近一起“虛假電話”事件中,美國的迴應也因此值得關注。選舉戰略家斯蒂芬·克雷默去年1月用人工智能製造出前總統拜登的聲音給選民打電話,傳播了有關投票的虛假信息。當時正是美國總統候選人競選拉開帷幕的時候。經過調查當局的追蹤,克萊默和律師團主張,電話中的聲音沒有直接提到自己是拜登,因此不是冒充。陪審團接受了這一要求。雖然不是性犯罪,但屬於利用人工智能擾亂社會秩序,卻被判無罪,從這一點來看,與金某事件有共同之處。
但克雷默卻高興不起來。美國聯邦通信委員會對他處以600萬美元(約83億韓元)的罰款。他給選民打的電話中包含虛假髮信人信息,這違反了通信規定。雖然避免了刑事處罰,但這是通過行政限制追究責任的事例。在犯罪比法律更接近人工智能的世界裏,並不是只有正面攻擊纔是對策。
熱門新聞