Go to contents

韩国政府的人工智能培育政策反而会毁掉人工智能

韩国政府的人工智能培育政策反而会毁掉人工智能

Posted January. 20, 2026 08:36   

Updated January. 20, 2026 08:36


韩国政府关于人工智能学习用著作相关规定“先使用,后补偿”的提案引起了争议。政府为了人工智能产业的发展,为了让企业更容易利用学习用数据,试图放宽著作相关限制,但著作权团体批评说,这是强迫著作权人作出牺牲的政策。

政府提议的制度的核心,是人工智能开发公司首先使用学习所需的数据开发模型,之后再把产生的部分收益补偿给著作权人。著作权团体对此表示了强烈的担忧。他们怀疑,在开发公司甚至不公开将什么、多少用作学习数据等协商轴向开发公司倾斜的情况下,著作能否得到正当的代价。

他们认为技术主导很重要,想把著作权人对学习数据补偿的担忧视为“守护饭碗”,但这并不是单纯的分配问题。因为人工智能通过数据学习提高性能,如果使生产学习数据的著作权人生态系统枯死,最终只能因数据枯竭导致人工智能性能下降。

学习数据不足的问题已经显现出来。根据非营利人工智能研究机构Epoch AI在2024年公开的研究结果,高品质语言数据将在2年到5年内枯竭。也就是说,到2030年,用于人工智能学习的高品质语言数据很有可能枯竭。

人工智能开发公司正在研究新的方案,打算用包括合成数据在内的人工智能生成的回答代替不足的学习数据。但如果反复学习人工智能生成的数据,就会导致“模型崩塌”。

模型崩塌是指人工智能不断学习自己生成的数据,生成结果的多样性逐渐消失,最终收敛到单一结果点的现象。如果人工智能反复学习自己生成的合成数据,其内在的偏见或泛化倾向会在每一次训练中不断增大,导致模型得出的结果越来越集中于人工智能熟悉的固定模式,逐渐偏离人类的现实世界。

模型崩塌会给利用人工智能进行决策的企业造成巨大损失,并有可能进一步恶化社会存在的偏见。这种人工智能最终得不到消费者的选择,模型本身将成为无用之物。

研究人工智能的学者们异口同声地表示,实际人类创造的数据必须被包括在学习中。因为人工智能很难模式化的多种新事件、情况、语言等,才是机器难以合成的人类数据的属性。

能够持续生产高品质人类数据的主体就是创作者。使著作权人生态界枯死的政策最终只能是破坏韩国主权人工智能项目的自相矛盾的政策。为了培养短期产业,犯下了破坏长期人工智能生态界基础的错误。只有建立著作权人和人工智能企业相生的结构,才是开发可持续的人工智能不可或缺的方法。