Go to contents

我们是否在期待建立在人类废墟之上的AI巴别塔?

我们是否在期待建立在人类废墟之上的AI巴别塔?

Posted May. 24, 2025 07:21   

Updated May. 24, 2025 07:21


“1716年,敬嫔朴氏被赐死。宫殿大动干戈。时年22岁的延礽君(英祖)突然威胁宫女,声称‘你们怎么敢对我妈妈那样!’,甚至意图在宫殿中纵火。《承政院日记》肃宗42年6月6日文章中有这样一段描述:‘潜邸之时,因悼母之故,狂奔欲纵火’。几年后延礽君(英祖)成为了国王。”

最近,一个“韩国史实话”为名的YouTube频道发布了一则短视频。

然而,这段看似引人入胜的历史故事实际上几乎完全不属实。这段AI生成的内容虽然在历史时间线上有所依据—英祖确实在1716年22岁,但其余内容几乎全部错误。英祖的母亲实际上是淑嫔崔氏,而非视频中提到的“敬嫔朴氏”。历史上,敬嫔朴氏只是中宗和思悼世子的后宫嫔妃。更重要的是,《承政院日记》中也从未有过视频中描述的那段记载。这段内容与其说是一段历史记录,不如说是一种“替代历史”的大众小说体裁的内容。尽管这个YouTube频道的其他内容在传达历史事实方面相对忠实,但这段“赤裸裸的谎言”却混杂其中。

这种现象很可能与最近AI技术被广泛用于在线内容的策划、制作和编辑有关。随着AI技术的普及,为了节约制作时间和成本,越来越多的在线内容开始依赖AI生成。然而,这种趋势也导致了事实错误的显著增加,这与AI提供错误信息的“幻觉现象(Hallucination)”有关。

目前还没有一种AI能够完全解决幻觉问题。与之前出现的搜索技术或社交媒体带来的信息选择偏见问题不同,生成AI面临的是一个更为根本的问题:生成的信息本身可能存在内在错误。AI可能是我们的好朋友,但有时它也会毫不犹豫地对我们编造谎言。如果未来我们将人类生命的决定性问题的部分权限交给AI,这确实令人担忧。当然,人类也会犯错,但人类会为错误承担责任并纠正。那么,当AI犯错时,谁来承担责任?

当前的生成型AI本质上是一种高度模仿和编辑的机器。没有原始来源,AI的开发就不可能进行。包括OpenAI的ChatGPT在内的大多数AI都在学习过程中“未经授权”使用了新闻报道等大量资料,这是公开的事实。虽然开发方用“数据”这个词掩盖,仿佛任何人都可以拿来使用,但实际上AI学习的是明确属于其他版权所有者的“知识产权”。美国《纽约时报》去年12月对OpenAI提起版权侵权诉讼的原因也正在于此。

“即使AI不断发展,仍然需要促进人类创作的理由是充分的。”这个领域的专家、世宗大学法学院教授崔承宰在最近一次研讨会上强调了这一点。有研究表明,如果AI制作的结果被AI再次学习,最终AI模型会崩溃。如果缺乏对IP的正当补偿,现有的内容创作基础将面临更严重的挑战。我们不禁要问:谁希望在人类废墟上建造AI的巴别塔?