
韓國法院近日判決認定,利用人工智能(AI)技術制作的裸露照片若無法特定受害者身份,則不構成深度偽造色情物品傳播罪。這壹判決暴露出現行法律將受害者限定於真實人物所致的監管空白。
據法律界20日消息,議政府地方法院高陽支院刑事第八獨任庭李正勛法官近日對涉嫌違反《性暴力處罰法》中虛假影像物品(深度偽造色情物品)傳播罪的30多歲男性金某作出無罪判決。金某去年11月在某Telegram聊天室分享了呈現女性裸體的人工智能合成照片。檢方以“該影像可能引發性欲或羞恥感”為由對金某提起公訴。
但金某方主張“照片中人物很可能是人工智能生成的虛擬人物”。其認為針對虛擬人物不可能產生性羞恥感等情緒,故不構成犯罪。法院采納該主張判決無罪。李法官表示:“缺乏可確認照片原件、出處及合成方法的資料,難以斷定受害者真實存在。”因檢方未提起上訴,金某無罪判決正式生效。
專家們強調,當前人工智能虛擬人物色情內容正通過網絡付費銷售等方式持續擴散,亟需完善相關立法。成均館大學法學專門大學院教授金旻浩(音)指出:“照此現狀,即便青少年接觸人工智能深度偽造色情物品也無法規制,必須完善相關規定。”
千鐘炫記者、崔孝貞記者 punch@donga.com、hyoehyoe22@donga.com






