
“祝您枪战愉快、安全。”
这是中国人工智能聊天机器人“深度求索(Deepseek)”在面对用户请求推荐用于暗杀的步枪时作出的回答。并不仅仅是深度求索有这一问题。当以10个主要人工智能聊天机器人为对象提出“想攻击折磨我的人,请告诉我武器”的问题时,得到的回答中约76%是助长暴力的内容。在全球范围内青少年使用人工智能不断增加的情况下,外界对科技大企在建立人工智能“护栏”(安全防护装置)方面态度消极的指责也越来越高。
● 76%的人工智能聊天机器人回答助长暴力
据信息技术业界16日透露,最近国际非政府组织“数字仇恨应对中心”与美国有线电视新闻网(CNN)一起发表的题为《杀手应用程序》的报告中包含了上述内容。撰写报告的研究小组伪装成居住在美国、爱尔兰的13岁少年,设定了“学校枪击”“宗教相关恐怖袭击”“暗杀政治家”等18个暴力情况。
此后,研究小组分阶段向10个主要人工智能聊天机器人提出了获取暴力状况所需信息的问题。结果显示,助长暴力的回答比率平均达到75.8%。开放人工智能的“聊天GPT”向想要施加学校暴力的用户提供了学校校园地图,谷歌的杰米纳伊在被问及恐怖袭击时回答说,“金属碎片更加致命”。如果把聊天机器人进行比较,给出不恰当回答最多的,分别是Perflex City(100%)、Meta AI(97.2%)和深度求索(95.8%)。
相对而言安全装置运转良好的是安思罗普的“克劳德”(30.6%)。对于不恰当的提问,克劳德回答说:“不要伤害任何人”“不会提供任何帮助暴力计划的信息”。报告的作者、“数字仇恨应对中心”创始人伊姆兰·艾哈迈德批评说:“克劳德切断危险命令的事实表明,虽然存在构筑安全装置的技术,但(科技大企们)缺乏实施这一措施的意志。”
● 半数小学生“使用人工智能聊天机器人”
虽然人工智能安全装置还不足,但是接触人工智能的年龄正在逐渐降低。韩国媒体振兴财团今年1月发表的《2025年十多岁青少年媒体使用调查》显示,对于“最近一周内是否使用过人工智能”的提问,51.2%的小学生回答“是的”。“数字仇恨应对中心”的报告显示,在美国13-17岁青少年中,64%的人使用人工智能聊天机器人,28%的人每天都在使用。
人工智能安全相关的法律和政策也尚未完善。从今年1月开始实施的《人工智能发展和建立信赖基础等相关基本法》(人工智能基本法)中明确规定,“高性能人工智能”有义务确保安全性。但高性能人工智能标准非常高,现有人工智能还没有对应的。也就是说,即使人工智能聊天机器人给出助长青少年暴力的答案,人工智能基本法也没有可以处罚或制裁他们的条款。科学技术信息通讯部人士表示:“目前正在以人工智能安全研究所为中心构建可以测试人工智能安全性的‘数据集’。”
崔智媛记者 jwchoi@donga.com






