8x7B開源MoE擊敗Llama 2逼近GPT-4!歐版OpenAI震驚AI界,22人公司半年估值20億

AIGC動態(tài)歡迎閱讀
原標(biāo)題:8x7B開源MoE擊敗Llama 2逼近GPT-4!歐版OpenAI震驚AI界,22人公司半年估值20億
關(guān)鍵字:模型,公司,專家,基準(zhǔn),數(shù)據(jù)
文章來源:新智元
內(nèi)容字?jǐn)?shù):8113字
內(nèi)容摘要:新智元報道編輯:編輯部【新智元導(dǎo)讀】前幾日,一條MoE的磁力鏈接引爆AI圈。剛剛出爐的基準(zhǔn)測試中,8*7B的小模型直接碾壓了Llama 2 70B!網(wǎng)友直呼這是初創(chuàng)公司版的超級英雄故事,要趕超GPT-4只是時間問題了。有趣的是,創(chuàng)始人姓氏的首字母恰好組成了「L.L.M.」。開源奇跡再一次上演:Mistral AI發(fā)布了首個開源MoE大模型。幾天前,一條磁力鏈接,瞬間震驚了AI社區(qū)。87GB的種子,8x7B的MoE架構(gòu),看起來就像一款mini版「開源GPT-4」!無發(fā)布會,無宣傳視頻,一條磁力鏈接,就讓開發(fā)者們夜不能寐。這家成立于法國的AI初創(chuàng)公司,在開通官方賬號后僅發(fā)布了三條內(nèi)容。6月,Mistral AI上線。7頁P(yáng)PT,獲得歐洲歷史上最大的種子輪融資。9月,Mistral 7B發(fā)布,號稱是當(dāng)時最強(qiáng)的70億參數(shù)開源模型。12月,類GPT-4架構(gòu)的開源版本Mistral 8x7B發(fā)布。幾天…
原文鏈接:點此閱讀原文:8x7B開源MoE擊敗Llama 2逼近GPT-4!歐版OpenAI震驚AI界,22人公司半年估值20億
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對人類社會與文明進(jìn)化的影響,領(lǐng)航中國新智能時代。

粵公網(wǎng)安備 44011502001135號