ChatGPT變笨新解釋:世界被AI改變,與訓練時不同了
AIGC動態(tài)歡迎閱讀
原標題:ChatGPT變笨新解釋:世界被AI改變,與訓練時不同了
關鍵字:任務,數(shù)據,模型,樣本,示例
文章來源:量子位
內容字數(shù):3538字
內容摘要:
夢晨 發(fā)自 凹非寺量子位 | 公眾號 QbitAI對于ChatGPT變笨原因,學術界又有了一種新解釋。
加州大學圣克魯茲分校一項研究指出:
在訓練數(shù)據截止之前的任務上,大模型表現(xiàn)明顯更好。
論文重點研究了“任務污染”問題,也就是大模型在訓練時期就見識過很多任務示例,給人一種AI擁有零樣本或少樣本能力的錯誤印象。
也有學者從另一個角度指出,大模型訓練后參數(shù)凍結,人們不斷提出新的任務也就是輸入分布不斷變化。如果模型不能不斷適應這種變化,就表現(xiàn)成能力慢慢退化。
人們以為只提了個問題AI就能回答,其實是在訓練時見過大多數(shù)常見任務。
隨時間推移,人們開始提出更多新問題,AI表現(xiàn)就不行了。
比如對于代碼問題,編程語言還在持續(xù)發(fā)展變化,遲早有一天效率會低到不可接受。
這是所有不具備持續(xù)學習能力模型的命運。
任務污染有多嚴重?研究團隊一共評估了12種模型,從ChatGPT之前的GPT-3系列、OPT、Bloom,到最新的GPT-3.5-turbo、羊駝家族Llama、Alpaca和Vicuna等。
它們都存在類似問題,也就是在訓練截止之前的任務上表現(xiàn)明顯更好。
評估任務污染非常困難,閉源模型根本不會公
原文鏈接:ChatGPT變笨新解釋:世界被AI改變,與訓練時不同了
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業(yè)新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...