AIGC動態歡迎閱讀
原標題:AI數據訓AI,引發模型大崩潰!牛津劍橋最新研究,登上Nature發警告
關鍵字:模型,數據,誤差,樣本,偏差
文章來源:夕小瑤科技說
內容字數:0字
內容摘要:
夕小瑤科技說 原創作者 | 谷雨龍澤我們都知道,AI大模型是需要現成的數據來訓練,只有喂給AI大量的數據,AI才能“學富五車”。為此,不少AI模型在研發的時候,特別注重數據的數量以及質量——就好比上學的時候老師告訴你們,讀書要讀名著,不能讀亂七八糟的東西是一個道理。
但是學著學著,人們發現了——AI的學習速度太快了,如果有一天,AI把所有現成的數據都學完了怎么辦?
于是有人提出來了一個“好點子”——用AI自己生成的數據來喂給AI(事實上,現在AI生成的數據已經無孔不入,AI如果自己上網查資料學習,說不定吸收的就是AIGC)。
是不是感到興奮了?是不是一下子放輕松了?
先別著急開香檳。近日,一群來自牛津、劍橋等的研究者在《Nature》上發表了一篇文章,提出了一個值得警惕的觀點:
如果用AI生成的數據來訓練AI,AI模型會“崩潰”掉!
論文標題:《AI models collapse when trained on recursively generated data》
論文鏈接:https://www.nature.com/articles/s41586-024-07566-y
“模型
原文鏈接:AI數據訓AI,引發模型大崩潰!牛津劍橋最新研究,登上Nature發警告
聯系作者
文章來源:夕小瑤科技說
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...