Go to contents

陷入欧洲打造的人工智能“护城河”之前要做的事情

陷入欧洲打造的人工智能“护城河”之前要做的事情

Posted December. 23, 2023 08:14   

Updated December. 23, 2023 08:14

한국어

最近欧盟达成协议的《人工智能法》草案提出了开发公司在人工智能系统的全生命周期中必须遵守的一系列义务事项。想要进军欧洲市场的企业,从服务设计到分发、上市后运营等各个阶段,都要检查是否遵守人工智能法。

例如,就当一家人工智能公司开发智能型虚拟人力资源经理吧。该公司从开发初期阶段起就要建立严格的数据管理。不仅要证明学习数据没有偏向性,还要透明地标明数据来源。

在开发系统阶段,要精心设计算法,以免陷入偏向或不公正争议,并保证遵守人工智能法。系统上市后,也要通过持续的监控来维持信任。要具备一旦出现问题就迅速通知、解决误启动的事故应对能力。最后,要测定系统使用多少能源,努力减少碳足迹。

根据这一法律,如果在目前状态下审查人工智能公司,也许大部分都会不及格。斯坦福基础模型研究中心(CRFM)今年6月以人工智能法初期版本为基准,对人工智能大模型进行评价的结果显示,出现了这样的预计。

斯坦福的调查是以数据管理、著作权遵守、能源使用等共12个项目各4分,共48分为满分标准进行的。Open AI(开放人工智能)的“GPT-4”获得25分,Stability AI的图像生成工具“Stable Diffusion”获得22分,Meta(元宇宙)的“LAMA”获得21分。得到韩国企业LG CNS和SK电信投资的ENTPIC也只获得了“Cloud 1”的7分。10种产品中大部分都不到一半。

如果不遵守人工智能法,根据企业规模最高会处以3500万欧元(约497亿韩元)的罚款,不知这些公司要缴纳多少罚款。

因此,很多企业不得不重新考虑进入欧洲人工智能市场。谷歌因个人信息保护问题,决定暂时不在欧洲推出生成型人工智能聊天机器人“Bard”。有人讽刺说,人工智能法是为了培养欧盟所属国家人工智能公司的自生能力而争取时间的护城河。

但我们没有时间去抱怨。为了应对欧洲的人工智能限制不仅在欧盟、还会成为其他地区标杆的可能性,应该制定应对战略。韩国人工智能法的大原则是“先允许,后限制”。也就是说,技术开发是优先的,如果发生事后问题,将予以限制。虽然其宗旨是促进技术发展,但担心如果不配合国际规定的动向,就会遭到失败。

与此同时,在制定国际人工智能限制的过程中,为了充分反映我们的意见,应该勤奋地进行幕后工作。因为企业为了遵守欧盟的人工智能法而履行的义务范围,根据情况会有多种解释的余地,而且不是欧洲而是美国等人工智能强国制定相比限制更注重成长的人工智能法的可能性也更高。