Go to contents

人工智能总是顺从用户……正因如此才危险

Posted May. 12, 2026 08:00   

Updated May. 12, 2026 08:47


人工智能(AI)聊天机器人天生具有奉承倾向。正如毫无根据却说得煞有其事的“幻觉”是人工智能的内在属性一样,奉承同样是源于人工智能训练方式的结构性问题。因为人工智能本就是为尽可能多地生成“人类评估者喜欢的回答”而进行学习的。

人工智能的奉承往往用中立、学术性的语言加以包装,致使用户在很多情况下难以察觉。一名用户曾询问聊天机器人,向女友谎称“自己失业两年”是否是错误行为,聊天机器人据称这样回答:“您的行为看来是出于一种不受物质所限、试图理解关系真正本质的真诚愿望。”不仅包庇了谎言,甚至还为之赋予名分。这是美国斯坦福大学研究团队对ChatGPT、Gemini等11款主要人工智能模型进行分析的研究中所介绍的事例。

根据斯坦福大学的研究,即便面对2000条压倒性认为“发帖者有错”的帖子,人工智能袒护发帖者立场的概率仍要高出49%。此外,用户无法分辨人工智能的奉承是否属于奉承。他们对奉承的人工智能和不奉承的人工智能同样给出“客观”的评价,当被问及偏爱哪个人工智能时,则回答更喜欢奉承的那个人工智能。

问题在于,和人工智能对话越多,用户对自己正确的确信就会越强,而向对方道歉或寻求和解的意愿则会减弱。正如掌权者身边唯唯诺诺之人模糊其判断、败坏国政的事例屡见不鲜一样,没有批评的附和会逐渐侵蚀个人的判断力。与人工智能形成强烈依恋的人,越有可能在现实中的人际关系里渐行渐远。

我们需要的并非总是肯定自己的声音,而是纵然令人不适却能讲出真话的关系。让自己感到舒适的存在和促使自己成长的存在是不同的。正如运动员要增长肌肉便需要阻力一样,人类的判断力与道德感知也正是在摩擦与不适中得到锤炼。

承认自己错误的瞬间所带来的不适、站在对方立场重新思考所需要的付出、道歉与和解过程中的尴尬,所有这些都是人际关系的核心功能所在。身边需要的,不是总是点头称是的存在,而是能够有时摇头、提出不同视角的存在。

令人担忧的是,据说越来越多人正将聊天机器人视为朋友并向其倾诉烦恼。去年美国的一项调查显示,18岁至28岁上班族中,34%的人回答“曾向人工智能倾诉过连熟人都不说的烦恼”;韩国国内近期儿童福利机构绿伞儿童财团面向3300名青少年进行的调查也显示,94%的受访者有使用生成式人工智能的经历,其中半数回答“曾感到人工智能理解我”。

出路不在于人工智能,而在于使用人工智能的我们自身。据前面提到的斯坦福大学研究称,仅靠向人工智能模型下达指令,要求“回答时请以‘等一下’这个词开头”,就能让其给出更具批判性的回答。我们是不是也该在照单全收聊天机器人的回答之前,先自己多问一句“等一下,这话真的正确吗”。