Llama系列上新多模態(tài)!3.2版本開(kāi)源超閉源,還和Arm聯(lián)手搞了手機(jī)優(yōu)化版
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:Llama系列上新多模態(tài)!3.2版本開(kāi)源超閉源,還和Arm聯(lián)手搞了手機(jī)優(yōu)化版
關(guān)鍵字:模型,參數(shù),終端,數(shù)據(jù),研究人員
文章來(lái)源:量子位
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
魚(yú)羊 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI在多模態(tài)領(lǐng)域,開(kāi)源模型也超閉源了!
就在剛剛結(jié)束的Meta開(kāi)發(fā)者大會(huì)上,Llama 3.2閃亮登場(chǎng):
這回不僅具備了多模態(tài)能力,還和Arm等聯(lián)手,推出了專門為高通和聯(lián)發(fā)科硬件優(yōu)化的“移動(dòng)”版本。
具體來(lái)說(shuō),此次Meta一共發(fā)布了Llama 3.2的4個(gè)型號(hào):
110億和900億參數(shù)的多模態(tài)版本
10億參數(shù)和30億參數(shù)的輕量級(jí)純文本模型
官方數(shù)據(jù)顯示,與同等規(guī)模的“中小型”大模型相比,Llama 3.2 11B和90B表現(xiàn)出了超越閉源模型的性能。
尤其是在圖像理解任務(wù)方面,Llama 3.2 11B超過(guò)了Claude 3 Haiku,而90B版本更是能跟GPT-4o-mini掰掰手腕了。
而專為端側(cè)打造的3B版本,在性能測(cè)試中表現(xiàn)也優(yōu)于谷歌的Gemma 2 2.6B和微軟的Phi 3.5-mini。
如此表現(xiàn),著實(shí)吸引了不少網(wǎng)友的關(guān)注。
有人興奮地認(rèn)為,Llama 3.2的推出可能再次“改變游戲規(guī)則”:
端側(cè)AI正在變得越來(lái)越重要。
Meta AI官方對(duì)此回復(fù)道:
其中一些模型參數(shù)量很小,但這個(gè)時(shí)刻意義重大。
首個(gè)視覺(jué)?有關(guān)Llama
原文鏈接:Llama系列上新多模態(tài)!3.2版本開(kāi)源超閉源,還和Arm聯(lián)手搞了手機(jī)優(yōu)化版
聯(lián)系作者
文章來(lái)源:量子位
作者微信:
作者簡(jiǎn)介: