我們常見在突顯個人或集體成就時,強調其“首次”性。幾年前掀起觀影熱潮、累計觀影人數位列韓國影史第二的電影中,有句台詞是:“至今爲止還沒有過這種味道。這是排骨還是炸雞?”這裏不也在強調“首次”嗎?“首次”之所以有意義,恐怕是因爲我們都知道,完成他人未曾做到之事、選擇無人走過之路是何等艱難。
此前意見紛纭的《人工智能發展與信任基礎構建等相關基本法》(AI基本法)于今年1月22日在全球“首次”全面施行。該法旨在聚焦産業振興的同時,通過明確透明性與安全性義務,努力確保可靠性。盡管圍繞法律的適用範圍和方式爭論不休,但作爲研究人機交互的筆者,不禁要問:“何爲值得信賴的AI?”要回答此問題,首先必須思考“何爲信任”。
第壹,信任是壹個多維度的概念。信息來源的公信力(credibility)是左右溝通效果的重要變量,通常被理解爲涵蓋能力、誠實和善意。患者相信執刀醫生能分毫不差地切除病竈,因此躺上手術台;焦慮的家長相信補習班老師能將考試重點有效灌輸給孩子,因此支付高昂費用。
然而,並非能力出衆者都值得信賴。詐騙犯之所以成問題,並非因爲無能,而是因爲不誠實。不坦誠相告或積極歪曲事實的人難以令人信任。即使極爲能幹且誠實,若其不盼我安好,也難成信任對象。對于共同民主黨將曾爲前總統作出不利證詞的雙鈴集團會長的辯護律師推薦爲第二次綜合特別檢察官候選人壹事,親李在明派系評價道:“如果是不知道而爲之,那是無能;如果是知道而爲之,那就是背叛和叛逆。”無論哪種情況,都同樣無法令人信任。
討論AI可靠性時不可避免的“幻覺”現象,指的是生成型AI自信地給出與事實不符或毫無根據的答案的情況。這實際上是在不懂裝懂這壹點上,同時喪失了能力和誠實性。換言之,提供正確答案的准確性、了解自身答案准確度的元認知、以及不知則坦誠相告的透明性,是值得信賴的AI的基本條件。
第二,信任是主觀的。所謂情人眼裏出西施,對同壹對象可靠性判斷存在差異的原因在于,評估過程中不知不覺地摻雜了人類的偏見。近期韓國行政研究院調查顯示,當問及“是否認爲中央政府有能力解決複雜社會問題”時,65.9%的公務員受訪者選擇“非常同意”或“傾向于同意”,而普通民衆中僅有46.5%給予肯定評價。此外,對于“是否認爲中央政府優先考慮全民利益”,58.3%的公務員給予肯定回答,而普通民衆中僅33.9%持相同看法。
因此,僅依賴諸如在高考語文考試中取得幾等、請求生成醫生圖像時呈現女性的比例等客觀性能指標,難以准確把握用戶對AI系統的信任程度。必須在實際使用情境中仔細評估:人們抱著何種期待使用AI,何時因何原因停止使用,使用過程中産生了哪些意外副作用等。
最後,信任需要辨別。如同陷入浪漫詐騙壹般,被谄媚的AI迷惑而做出錯誤判斷或有害行爲的事例,揭示了人類多麽容易受稱贊左右。因此,不應將提高AI的社會接受度本身作爲政策目標,而應在開發值得信賴的技術的同時,緊急提升用戶辨別技術的能力。這當然也包括警惕我們自身的局限和偏見。
歸根結底,值得信賴的AI並非旨在說服用戶使其相信並引發過度自信的系統,而是應設計爲輔助用戶進行理性判斷、並在必要時敢于質疑的系統。李在明政府將“成爲全球最善于使用AI的國家”而非“全球使用AI最多的國家”明確寫入國政課題,或許也是出于此因。
熱門新聞