Go to contents

尤瓦爾•赫拉利:“AI決定轟炸誰…AI革命可能會成為與以往不同層次的威脅”

尤瓦爾•赫拉利:“AI決定轟炸誰…AI革命可能會成為與以往不同層次的威脅”

Posted March. 21, 2025 08:22   

Updated March. 21, 2025 08:22


“從石器時代的石刀到印刷機、原子彈,迄今為止的科技革命都是我們手中的工具。但是人工智能(AI)可以自己決定。不知道會轟炸誰,也不知道會發明何種武器。AI革命可能會成為與以往不同層次的威脅。”

世界暢銷書作家、以色列歷史學家尤瓦爾•赫拉利(49歲)自2017年出版著作《未來簡史》後,時隔8年再次來到韓國。去年出版的書《智人之上》在韓國出版之際訪韓的他20日在首爾鐘路區舉行座談會,診斷了AI和人類的未來。

赫拉利說:“為了解決AI這個問題,人類比歷史上任何時候都迫切需要人類的合作。但我們正在迅速喪失對彼此的信任”,“雖然擁有歷史上最精巧的信息技術,但彼此間的對話卻變得更加困難。”

他指出,出現這種現象的原因是“AI算法”。他指出,AI的設計不是為了“追求真相”,而是為了“提高用戶的參與度”,在社交媒體上不僅會擴散虛假信息,還會擴散刺激恐懼和憎惡心的內容。

“與以長期的經驗和裝置為基礎辨別信息真偽的(報紙和電視等)傳統媒體不同,在新媒體世界中,真實已經沈入谷底,世界充斥著廉價、華而不實的虛構。這是阻礙民主主義的嚴重因素。”

赫拉利忠告說,要想阻止AI帶來的更大危險,首先要消除信任悖論。

“當我問引領AI潮流的人‘為什麽走得這麽快’時,得到的答案是‘如果我們慎重地接近,競爭者就會在AI賽跑中獲勝’。首先要建立相互信賴的基礎。我們需要那種以信任為基礎學習的AI,而不是在不信任和矛盾中誕生的AI,這樣才能信任和依靠。”

赫拉利提議說:“現在是每個人思考如何使用AI的時候了。”其宗旨是,就像吃完食物後需要消化時間壹樣,在信息泄露後要有反省的時間。


李智潤記者 leemail@donga.com