AIGC動態歡迎閱讀
原標題:最新開源模型Mixtral震爆AI社區!超越LLama2和GPT-3.5,來自歐洲初創公司
文章來源:夕小瑤科技說
內容字數:2197字
內容摘要:夕小瑤科技說 原創作者 | 松果、王二狗這兩天,法國初創公司Mistral AI開源的一個Mixtral 8x7B MoE模型引爆了AI社區。一是因為它的性能擊敗了LLama2和GPT-3.5。二是因為,Mixtral是一個專家混合模型(Mixture-of-Experts model,MoE),使用了傳聞中 OpenAI 用于GPT-4的架構,但是參數相比GPT-4要小很多,堪稱是縮小版“GPT-4”。而且這個模型還開源了,Mistral AI甚至直接通過torrent鏈接將其甩在上發布。huggingface下載鏈接:https://huggingface.co/mistralai/Mixtral-8x7B-Instruct-v0.1Mixtral 8x7B MoE模型當前:在 Apache 2.0 許可下免費使用;推理速度提高6 倍,性能優于 Llama 2 70B模型。性能匹配…
原文鏈接:點此閱讀原文:最新開源模型Mixtral震爆AI社區!超越LLama2和GPT-3.5,來自歐洲初創公司
聯系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業洞見。聚集25萬AI應用開發者、算法工程師和研究人員。一線作者均來自清北、國外頂級AI實驗室和互聯網大廠,兼備媒體sense與技術深度。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...