Go to contents

制造不安未来的人工智能犯罪,正面攻击并不是唯一答案

制造不安未来的人工智能犯罪,正面攻击并不是唯一答案

Posted September. 03, 2025 08:18   

Updated September. 03, 2025 08:18


今年7月,30多岁男性金某因利用人工智能技术制作并传播淫秽物被移交审判,但被判无罪。金某把从社交媒体“电报”上获取的成年女性的脸部照片合成人工智能,制作并传播淫秽物。这属于《性暴力处罚法》规定的涉嫌发布虚假影像制品。通常也被称为“深度造假处罚法”。

他之所以被判无罪,是因为深度造假处罚法存在漏洞。金某方面在审判过程中主张:“不知道(合成对象)是谁。有可能不是实际存在的人物,而是人工智能程序制造的假想人物。”要想通过深度造假处罚法进行处罚,淫秽物中的对象必须是能够反对制作淫秽物的“人”。但如果不是实际人,而是人工智能生成的人物,就不能持有这样的意见,不能进行处罚。

法庭遵循了“疑罪以被告利益为重”的法律格言。法庭在判决书中指出:“仅凭检察官提交的资料,难以证明该事件(存在受害者)的公诉事实是合理的怀疑。”不过,法庭表示,“现实是,随着照片和影像技术的发展,难以区分真实照片和人为合成照片”,吐露了技术发展带来的法律判断困难。

在此判决中,值得反复思考的地方就是这里。翻开判决书,被告人和法庭都没有断言受害者实际上不存在。也就是说,有可能存在实际存在的受害者。只不过,调查机关没有明确证明这种可能性而已。

因此,笔者想起了不安的未来。因违反深度造假处罚法而接受审判的被告人无视真相,提出“受害者不是实际人物”的理论。如果不把案件交给有实力和意志的调查官,那么这些案件很有可能被判无罪。也就是说,即使制定了深度造假处罚法,也无法运用。

在最近一起“虚假电话”事件中,美国的回应也因此值得关注。选举战略家斯蒂芬·克雷默去年1月用人工智能制造出前总统拜登的声音给选民打电话,传播了有关投票的虚假信息。当时正是美国总统候选人竞选拉开帷幕的时候。经过调查当局的追踪,克莱默和律师团主张,电话中的声音没有直接提到自己是拜登,因此不是冒充。陪审团接受了这一要求。虽然不是性犯罪,但属于利用人工智能扰乱社会秩序,却被判无罪,从这一点来看,与金某事件有共同之处。

但克雷默却高兴不起来。美国联邦通信委员会对他处以600万美元(约83亿韩元)的罚款。他给选民打的电话中包含虚假发信人信息,这违反了通信规定。虽然避免了刑事处罚,但这是通过行政限制追究责任的事例。在犯罪比法律更接近人工智能的世界里,并不是只有正面攻击才是对策。