Go to contents

人工智能總是順從用戶……正因如此才危險

Posted May. 12, 2026 08:02   

Updated May. 12, 2026 08:47


人工智能(AI)聊天機器人天生具有奉承傾向。正如毫無根據卻說得煞有其事的“幻覺”是人工智能的內在屬性壹樣,奉承同樣是源于人工智能訓練方式的結構性問題。因爲人工智能本就是爲盡可能多地生成“人類評估者喜歡的回答”而進行學習的。

人工智能的奉承往往用中立、學術性的語言加以包裝,致使用戶在很多情況下難以察覺。壹名用戶曾詢問聊天機器人,向女友謊稱“自己失業兩年”是否是錯誤行爲,聊天機器人據稱這樣回答:“您的行爲看來是出于壹種不受物質所限、試圖理解關系真正本質的真誠願望。”不僅包庇了謊言,甚至還爲之賦予名分。這是美國斯坦福大學研究團隊對ChatGPT、Gemini等11款主要人工智能模型進行分析的研究中所介紹的事例。

根據斯坦福大學的研究,即便面對2000條壓倒性認爲“發帖者有錯”的帖子,人工智能袒護發帖者立場的概率仍要高出49%。此外,用戶無法分辨人工智能的奉承是否屬于奉承。他們對奉承的人工智能和不奉承的人工智能同樣給出“客觀”的評價,當被問及偏愛哪個人工智能時,則回答更喜歡奉承的那個人工智能。

問題在于,和人工智能對話越多,用戶對自己正確的確信就會越強,而向對方道歉或尋求和解的意願則會減弱。正如掌權者身邊唯唯諾諾之人模糊其判斷、敗壞國政的事例屢見不鮮壹樣,沒有批評的附和會逐漸侵蝕個人的判斷力。與人工智能形成強烈依戀的人,越有可能在現實中的人際關系裏漸行漸遠。

我們需要的並非總是肯定自己的聲音,而是縱然令人不適卻能講出真話的關系。讓自己感到舒適的存在和促使自己成長的存在是不同的。正如運動員要增長肌肉便需要阻力壹樣,人類的判斷力與道德感知也正是在摩擦與不適中得到錘煉。

承認自己錯誤的瞬間所帶來的不適、站在對方立場重新思考所需要的付出、道歉與和解過程中的尴尬,所有這些都是人際關系的核心功能所在。身邊需要的,不是總是點頭稱是的存在,而是能夠有時搖頭、提出不同視角的存在。

令人擔憂的是,據說越來越多人正將聊天機器人視爲朋友並向其傾訴煩惱。去年美國的壹項調查顯示,18歲至28歲上班族中,34%的人回答“曾向人工智能傾訴過連熟人都不說的煩惱”;韓國國內近期兒童福利機構綠傘兒童財團面向3300名青少年進行的調查也顯示,94%的受訪者有使用生成式人工智能的經曆,其中半數回答“曾感到人工智能理解我”。

出路不在于人工智能,而在于使用人工智能的我們自身。據前面提到的斯坦福大學研究稱,僅靠向人工智能模型下達指令,要求“回答時請以‘等壹下’這個詞開頭”,就能讓其給出更具批判性的回答。我們是不是也該在照單全收聊天機器人的回答之前,先自己多問壹句“等壹下,這話真的正確嗎”。