Go to contents

陷入歐洲打造的人工智能“護城河”之前要做的事情

陷入歐洲打造的人工智能“護城河”之前要做的事情

Posted December. 23, 2023 08:16   

Updated December. 23, 2023 08:30

한국어

最近歐盟達成協議的《人工智能法》草案提出了開發公司在人工智能系統的全生命周期中必須遵守的壹系列義務事項。想要進軍歐洲市場的企業,從服務設計到分發、上市後運營等各個階段,都要檢查是否遵守人工智能法。

例如,就當壹家人工智能公司開發智能型虛擬人力資源經理吧。該公司從開發初期階段起就要建立嚴格的數據管理。不僅要證明學習數據沒有偏向性,還要透明地標明數據來源。

在開發系統階段,要精心設計算法,以免陷入偏向或不公正爭議,並保證遵守人工智能法。系統上市後,也要通過持續的監控來維持信任。要具備壹旦出現問題就迅速通知、解決誤啟動的事故應對能力。最後,要測定系統使用多少能源,努力減少碳足跡。

根據這壹法律,如果在目前狀態下審查人工智能公司,也許大部分都會不及格。斯坦福基礎模型研究中心(CRFM)今年6月以人工智能法初期版本為基準,對人工智能大模型進行評價的結果顯示,出現了這樣的預計。

斯坦福的調查是以數據管理、著作權遵守、能源使用等共12個項目各4分,共48分為滿分標準進行的。Open AI(開放人工智能)的“GPT-4”獲得25分,Stability AI的圖像生成工具“Stable Diffusion”獲得22分,Meta(元宇宙)的“LAMA”獲得21分。得到韓國企業LG CNS和SK電信投資的ENTPIC也只獲得了“Clou誒 1”的7分。10種產品中大部分都不到壹半。

如果不遵守人工智能法,根據企業規模最高會處以3500萬歐元(約497億韓元)的罰款,不知這些公司要繳納多少罰款。

因此,很多企業不得不重新考慮進入歐洲人工智能市場。谷歌因個人信息保護問題,決定暫時不在歐洲推出生成型人工智能聊天機器人“Bar誒”。有人諷刺說,人工智能法是為了培養歐盟所屬國家人工智能公司的自生能力而爭取時間的護城河。

但我們沒有時間去抱怨。為了應對歐洲的人工智能限制不僅在歐盟、還會成為其他地區標桿的可能性,應該制定應對戰略。韓國人工智能法的大原則是“先允許,後限制”。也就是說,技術開發是優先的,如果發生事後問題,將予以限制。雖然其宗旨是促進技術發展,但擔心如果不配合國際規定的動向,就會遭到失敗。

與此同時,在制定國際人工智能限制的過程中,為了充分反映我們的意見,應該勤奮地進行幕後工作。因為企業為了遵守歐盟的人工智能法而履行的義務範圍,根據情況會有多種解釋的余地,而且不是歐洲而是美國等人工智能強國制定相比限制更註重成長的人工智能法的可能性也更高。