
韩国法院近日判决认定,利用人工智能(AI)技术制作的裸露照片若无法特定受害者身份,则不构成深度伪造色情物品传播罪。这一判决暴露出现行法律将受害者限定于真实人物所致的监管空白。
据法律界20日消息,议政府地方法院高阳支院刑事第八独任庭李正勋法官近日对涉嫌违反《性暴力处罚法》中虚假影像物品(深度伪造色情物品)传播罪的30多岁男性金某作出无罪判决。金某去年11月在某Telegram聊天室分享了呈现女性裸体的人工智能合成照片。检方以“该影像可能引发性欲或羞耻感”为由对金某提起公诉。
但金某方主张“照片中人物很可能是人工智能生成的虚拟人物”。其认为针对虚拟人物不可能产生性羞耻感等情绪,故不构成犯罪。法院采纳该主张判决无罪。李法官表示:“缺乏可确认照片原件、出处及合成方法的资料,难以断定受害者真实存在。”因检方未提起上诉,金某无罪判决正式生效。
专家们强调,当前人工智能虚拟人物色情内容正通过网络付费销售等方式持续扩散,亟需完善相关立法。成均馆大学法学专门大学院教授金旻浩(音)指出:“照此现状,即便青少年接触人工智能深度伪造色情物品也无法规制,必须完善相关规定。”
千钟炫记者、崔孝贞记者 punch@donga.com、hyoehyoe22@donga.com






