“1716年,敬嬪朴氏被賜死。宮殿大動幹戈。時年22歲的延礽君(英祖)突然威脅宮女,聲稱‘妳們怎麽敢對我媽媽那樣!’,甚至意圖在宮殿中縱火。《承政院日記》肅宗42年6月6日文章中有這樣壹段描述:‘潛邸之時,因悼母之故,狂奔欲縱火’。幾年後延礽君(英祖)成為了國王。”
最近,壹個“韓國史實話”為名的YouTube頻道發布了壹則短視頻。
然而,這段看似引人入勝的歷史故事實際上幾乎完全不屬實。這段AI生成的內容雖然在歷史時間線上有所依據—英祖確實在1716年22歲,但其余內容幾乎全部錯誤。英祖的母親實際上是淑嬪崔氏,而非視頻中提到的“敬嬪朴氏”。歷史上,敬嬪朴氏只是中宗和思悼世子的後宮嬪妃。更重要的是,《承政院日記》中也從未有過視頻中描述的那段記載。這段內容與其說是壹段歷史記錄,不如說是壹種“替代歷史”的大眾小說體裁的內容。盡管這個YouTube頻道的其他內容在傳達歷史事實方面相對忠實,但這段“赤裸裸的謊言”卻混雜其中。
這種現象很可能與最近AI技術被廣泛用於在線內容的策劃、制作和編輯有關。隨著AI技術的普及,為了節約制作時間和成本,越來越多的在線內容開始依賴AI生成。然而,這種趨勢也導致了事實錯誤的顯著增加,這與AI提供錯誤信息的“幻覺現象(Hallucination)”有關。
目前還沒有壹種AI能夠完全解決幻覺問題。與之前出現的搜索技術或社交媒體帶來的信息選擇偏見問題不同,生成AI面臨的是壹個更為根本的問題:生成的信息本身可能存在內在錯誤。AI可能是我們的好朋友,但有時它也會毫不猶豫地對我們編造謊言。如果未來我們將人類生命的決定性問題的部分權限交給AI,這確實令人擔憂。當然,人類也會犯錯,但人類會為錯誤承擔責任並糾正。那麽,當AI犯錯時,誰來承擔責任?
當前的生成型AI本質上是壹種高度模仿和編輯的機器。沒有原始來源,AI的開發就不可能進行。包括OpenAI的ChatGPT在內的大多數AI都在學習過程中“未經授權”使用了新聞報道等大量資料,這是公開的事實。雖然開發方用“數據”這個詞掩蓋,仿佛任何人都可以拿來使用,但實際上AI學習的是明確屬於其他版權所有者的“知識產權”。美國《紐約時報》去年12月對OpenAI提起版權侵權訴訟的原因也正在於此。
“即使AI不斷發展,仍然需要促進人類創作的理由是充分的。”這個領域的專家、世宗大學法學院教授崔承宰在最近壹次研討會上強調了這壹點。有研究表明,如果AI制作的結果被AI再次學習,最終AI模型會崩潰。如果缺乏對IP的正當補償,現有的內容創作基礎將面臨更嚴重的挑戰。我們不禁要問:誰希望在人類廢墟上建造AI的巴別塔?
熱門新聞