1.3>7?微軟新模型“以小博大”戰(zhàn)勝Llama2,網(wǎng)友:用Benchmark訓(xùn)練的吧?
AIGC動態(tài)歡迎閱讀
原標(biāo)題:1.3>7?微軟新模型“以小博大”戰(zhàn)勝Llama2,網(wǎng)友:用Benchmark訓(xùn)練的吧?
關(guān)鍵字:模型,微軟,數(shù)據(jù),參數(shù),成績
文章來源:量子位
內(nèi)容字?jǐn)?shù):4463字
內(nèi)容摘要:克雷西 發(fā)自 凹非寺量子位 | 公眾號 QbitAI一個(gè)參數(shù)量只有1.3B的大模型,為何引發(fā)了全網(wǎng)熱議?原來雖然參數(shù)量不大,但效果已經(jīng)超過了擁有7B參數(shù)的Llama2。這個(gè)“四兩撥千斤”的模型,是來自微軟最新的研究成果,核心在于只使用少量高質(zhì)數(shù)據(jù)。微軟這次發(fā)布的開源模型叫phi-1.5,在只支持代碼的1.0版本之上加入了一般場景對話。與一眾卷參數(shù)量的模型相比,phi可以說是“劍走偏鋒”,力求把“大…
原文鏈接:點(diǎn)此閱讀原文:1.3>7?微軟新模型“以小博大”戰(zhàn)勝Llama2,網(wǎng)友:用Benchmark訓(xùn)練的吧?
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...