AIGC動態歡迎閱讀
原標題:7B羊駝戰勝540B“谷歌版GPT”,MIT用博弈論大模型,無需訓練就能完成
文章來源:量子位
內容字數:4743字
內容摘要:克雷西 發自 凹非寺量子位 | 公眾號 QbitAI基于博弈論,MIT提出了一種新的大模型優化策略。在其加持之下,7B參數的Llama在多個數據集上超越了540B的“谷歌版GPT”PaLM。而且整個過程無需對模型進行額外訓練,消耗的算力資源更低。這種基于博弈論制定的優化策略被稱為均衡排名(Equilibrium Ranking)。研究團隊將大模型語言解碼過程轉化為正則化不完全信息博弈。這個詞可以拆…
原文鏈接:點此閱讀原文:7B羊駝戰勝540B“谷歌版GPT”,MIT用博弈論大模型,無需訓練就能完成
聯系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...