
“从石器时代的石刀到印刷机、原子弹,迄今为止的科技革命都是我们手中的工具。但是人工智能(AI)可以自己决定。不知道会轰炸谁,也不知道会发明何种武器。AI革命可能会成为与以往不同层次的威胁。”
世界畅销书作家、以色列历史学家尤瓦尔•赫拉利(49岁)自2017年出版著作《未来简史》后,时隔8年再次来到韩国。去年出版的书《智人之上》在韩国出版之际访韩的他20日在首尔钟路区举行座谈会,诊断了AI和人类的未来。
赫拉利说:“为了解决AI这个问题,人类比历史上任何时候都迫切需要人类的合作。但我们正在迅速丧失对彼此的信任”,“虽然拥有历史上最精巧的信息技术,但彼此间的对话却变得更加困难。”
他指出,出现这种现象的原因是“AI算法”。他指出,AI的设计不是为了“追求真相”,而是为了“提高用户的参与度”,在社交媒体上不仅会扩散虚假信息,还会扩散刺激恐惧和憎恶心的内容。
“与以长期的经验和装置为基础辨别信息真伪的(报纸和电视等)传统媒体不同,在新媒体世界中,真实已经沉入谷底,世界充斥着廉价、华而不实的虚构。这是阻碍民主主义的严重因素。”
赫拉利忠告说,要想阻止AI带来的更大危险,首先要消除信任悖论。
“当我问引领AI潮流的人‘为什么走得这么快’时,得到的答案是‘如果我们慎重地接近,竞争者就会在AI赛跑中获胜’。首先要建立相互信赖的基础。我们需要那种以信任为基础学习的AI,而不是在不信任和矛盾中诞生的AI,这样才能信任和依靠。”
赫拉利提议说:“现在是每个人思考如何使用AI的时候了。”其宗旨是,就像吃完食物后需要消化时间一样,在信息泄露后要有反省的时间。
李智润记者 leemail@donga.com