Go to contents

AI基本法首次施行,可靠性考量应先行

Posted February. 21, 2026 08:48   

Updated February. 21, 2026 08:48


我们常见在突显个人或集体成就时,强调其“首次”性。几年前掀起观影热潮、累计观影人数位列韩国影史第二的电影中,有句台词是:“至今为止还没有过这种味道。这是排骨还是炸鸡?”这里不也在强调“首次”吗?“首次”之所以有意义,恐怕是因为我们都知道,完成他人未曾做到之事、选择无人走过之路是何等艰难。

此前意见纷纭的《人工智能发展与信任基础构建等相关基本法》(AI基本法)于今年1月22日在全球“首次”全面施行。该法旨在聚焦产业振兴的同时,通过明确透明性与安全性义务,努力确保可靠性。尽管围绕法律的适用范围和方式争论不休,但作为研究人机交互的笔者,不禁要问:“何为值得信赖的AI?”要回答此问题,首先必须思考“何为信任”。

第一,信任是一个多维度的概念。信息来源的公信力(credibility)是左右沟通效果的重要变量,通常被理解为涵盖能力、诚实和善意。患者相信执刀医生能分毫不差地切除病灶,因此躺上手术台;焦虑的家长相信补习班老师能将考试重点有效灌输给孩子,因此支付高昂费用。

然而,并非能力出众者都值得信赖。诈骗犯之所以成问题,并非因为无能,而是因为不诚实。不坦诚相告或积极歪曲事实的人难以令人信任。即使极为能干且诚实,若其不盼我安好,也难成信任对象。对于共同民主党将曾为前总统作出不利证词的双铃集团会长的辩护律师推荐为第二次综合特别检察官候选人一事,亲李在明派系评价道:“如果是不知道而为之,那是无能;如果是知道而为之,那就是背叛和叛逆。”无论哪种情况,都同样无法令人信任。

讨论AI可靠性时不可避免的“幻觉”现象,指的是生成型AI自信地给出与事实不符或毫无根据的答案的情况。这实际上是在不懂装懂这一点上,同时丧失了能力和诚实性。换言之,提供正确答案的准确性、了解自身答案准确度的元认知、以及不知则坦诚相告的透明性,是值得信赖的AI的基本条件。

第二,信任是主观的。所谓情人眼里出西施,对同一对象可靠性判断存在差异的原因在于,评估过程中不知不觉地掺杂了人类的偏见。近期韩国行政研究院调查显示,当问及“是否认为中央政府有能力解决复杂社会问题”时,65.9%的公务员受访者选择“非常同意”或“倾向于同意”,而普通民众中仅有46.5%给予肯定评价。此外,对于“是否认为中央政府优先考虑全民利益”,58.3%的公务员给予肯定回答,而普通民众中仅33.9%持相同看法。

因此,仅依赖诸如在高考语文考试中取得几等、请求生成医生图像时呈现女性的比例等客观性能指标,难以准确把握用户对AI系统的信任程度。必须在实际使用情境中仔细评估:人们抱着何种期待使用AI,何时因何原因停止使用,使用过程中产生了哪些意外副作用等。

最后,信任需要辨别。如同陷入浪漫诈骗一般,被谄媚的AI迷惑而做出错误判断或有害行为的事例,揭示了人类多么容易受称赞左右。因此,不应将提高AI的社会接受度本身作为政策目标,而应在开发值得信赖的技术的同时,紧急提升用户辨别技术的能力。这当然也包括警惕我们自身的局限和偏见。

归根结底,值得信赖的AI并非旨在说服用户使其相信并引发过度自信的系统,而是应设计为辅助用户进行理性判断、并在必要时敢于质疑的系统。李在明政府将“成为全球最善于使用AI的国家”而非“全球使用AI最多的国家”明确写入国政课题,或许也是出于此因。