AIGC動態歡迎閱讀
原標題:法國版OpenAI殺瘋了!1760億參數MoE登開源榜首,3張A100顯卡可跑,楊立昆轉發“逆天”評論
關鍵字:模型,社區,磁力,顯卡,榜首
文章來源:智東西
內容字數:4817字
內容摘要:
Mistral AI低調開源8x22B超大杯。
作者|香草
編輯|李水青
智東西4月11日報道,就在昨日谷歌Cloud Next大會當天,“歐洲版OpenAI”Mistral AI又一次悄然秀肌肉,甩出全新MoE(專家混合)大模型Mixtral 8x22B磁力鏈接,模型參數規模高達1760億,僅次于馬斯克的Grok-1,成為市面上參數規模第二大的開源模型。
▲Mistral AI發布Mixtral 8x22B
Mixtral 8x22B由8個專家模型構成,每個模型的參數規模220億,模型文件大小約為262GB。測評成績方面,Mixtral 8x22B在MMLU(大規模多任務語言理解)登頂開源模型榜首,Hellaswag、TruthfulQA、GSM8K等多項測評成績超越Llama 2 70B、GPT-3.5以及Claude 3 Sonnet。
這是近日繼OpenAI的視覺版GPT-4 Turbo和谷歌的Gemini 1.5 Pro全面更新后,大模型廠商們發布的第三個重要型號。此外,Meta還暗示將在下個月發布Llama 3。
推薦智東西年度會議。4月18-19日,2024中國生成式AI
原文鏈接:法國版OpenAI殺瘋了!1760億參數MoE登開源榜首,3張A100顯卡可跑,楊立昆轉發“逆天”評論
聯系作者
文章來源:智東西
作者微信:zhidxcom
作者簡介:智能產業新媒體!智東西專注報道人工智能主導的前沿技術發展,和技術應用帶來的千行百業產業升級。聚焦智能變革,服務產業升級。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...