最新開源模型Mixtral震爆AI社區(qū)!超越LLama2和GPT-3.5,來自歐洲初創(chuàng)公司

AIGC動態(tài)歡迎閱讀
原標(biāo)題:最新開源模型Mixtral震爆AI社區(qū)!超越LLama2和GPT-3.5,來自歐洲初創(chuàng)公司
關(guān)鍵字:模型,格局,性能,競爭,科學(xué)家
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):2197字
內(nèi)容摘要:夕小瑤科技說 原創(chuàng)作者 | 松果、王二狗這兩天,法國初創(chuàng)公司Mistral AI開源的一個Mixtral 8x7B MoE模型引爆了AI社區(qū)。一是因為它的性能擊敗了LLama2和GPT-3.5。二是因為,Mixtral是一個專家混合模型(Mixture-of-Experts model,MoE),使用了傳聞中 OpenAI 用于GPT-4的架構(gòu),但是參數(shù)相比GPT-4要小很多,堪稱是縮小版“GPT-4”。而且這個模型還開源了,Mistral AI甚至直接通過torrent鏈接將其甩在上發(fā)布。huggingface下載鏈接:https://huggingface.co/mistralai/Mixtral-8x7B-Instruct-v0.1Mixtral 8x7B MoE模型當(dāng)前:在 Apache 2.0 許可下免費使用;推理速度提高6 倍,性能優(yōu)于 Llama 2 70B模型。性能匹配…
原文鏈接:點此閱讀原文:最新開源模型Mixtral震爆AI社區(qū)!超越LLama2和GPT-3.5,來自歐洲初創(chuàng)公司
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI應(yīng)用開發(fā)者、算法工程師和研究人員。一線作者均來自清北、國外頂級AI實驗室和互聯(lián)網(wǎng)大廠,兼?zhèn)涿襟wsense與技術(shù)深度。

粵公網(wǎng)安備 44011502001135號