Qwen2.5登上全球開源王座!72B模型擊敗LIama3 405B,輕松勝過GPT-4o-mini
AIGC動態(tài)歡迎閱讀
原標(biāo)題:Qwen2.5登上全球開源王座!72B模型擊敗LIama3 405B,輕松勝過GPT-4o-mini
關(guān)鍵字:模型,數(shù)據(jù),數(shù)學(xué),能力,代碼
文章來源:量子位
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
白小交 發(fā)自 凹非寺量子位 | 公眾號 QbitAI擊敗LIama3!Qwen2.5登上全球開源王座。
而后者僅以五分之一的參數(shù)規(guī)模,就在多任務(wù)中超越LIama3 405B。
各種任務(wù)表現(xiàn)也遠(yuǎn)超同類別的其他模型。
跟上一代相比,幾乎實(shí)現(xiàn)了全面提升,尤其在一般任務(wù)、數(shù)學(xué)和編碼方面的能力表現(xiàn)顯著。
值得注意的是,此次Qwen可以說是史上最大規(guī)模開源,基礎(chǔ)模型直接釋放了7個參數(shù)型號,其中還有六七個數(shù)學(xué)、代碼模型。
像14B、32B以及輕量級Turbo模型勝過GPT-4o-mini。
除3B和72B模型外,此次所有開源模型均采用Apache 2.0許可。
Qwen2.5:0.5B、1.5B、3B、7B、14B、32B和72B
Qwen2.5-Coder:1.5B、7B和32B(on the way)
Qwen2.5-Math:1.5B、7B和72B。
直接一整個眼花繚亂,已經(jīng)有網(wǎng)友開始用上了。
Qwen2.5 72B與LIama3.1 405B水平相當(dāng)相比于Qwen2系列,Qwen2.5系列主要有這么幾個方面升級。
首先,全面開源。
他們研究表明,用戶對于生產(chǎn)用的10B-30B參數(shù)范圍以及移動
原文鏈接:Qwen2.5登上全球開源王座!72B模型擊敗LIama3 405B,輕松勝過GPT-4o-mini
聯(lián)系作者
文章來源:量子位
作者微信:
作者簡介: