7B羊駝戰(zhàn)勝540B“谷歌版GPT”,MIT用博弈論大模型,無(wú)需訓(xùn)練就能完成
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:7B羊駝戰(zhàn)勝540B“谷歌版GPT”,MIT用博弈論大模型,無(wú)需訓(xùn)練就能完成
文章來(lái)源:量子位
內(nèi)容字?jǐn)?shù):4743字
內(nèi)容摘要:克雷西 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI基于博弈論,MIT提出了一種新的大模型優(yōu)化策略。在其加持之下,7B參數(shù)的Llama在多個(gè)數(shù)據(jù)集上超越了540B的“谷歌版GPT”P(pán)aLM。而且整個(gè)過(guò)程無(wú)需對(duì)模型進(jìn)行額外訓(xùn)練,消耗的算力資源更低。這種基于博弈論制定的優(yōu)化策略被稱為均衡排名(Equilibrium Ranking)。研究團(tuán)隊(duì)將大模型語(yǔ)言解碼過(guò)程轉(zhuǎn)化為正則化不完全信息博弈。這個(gè)詞可以拆…
原文鏈接:點(diǎn)此閱讀原文:7B羊駝戰(zhàn)勝540B“谷歌版GPT”,MIT用博弈論大模型,無(wú)需訓(xùn)練就能完成
聯(lián)系作者
文章來(lái)源:量子位
作者微信:QbitAI
作者簡(jiǎn)介:追蹤人工智能新趨勢(shì),關(guān)注科技行業(yè)新突破
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載。
相關(guān)文章
暫無(wú)評(píng)論...