AIGC動態歡迎閱讀
原標題:原作親自下場!Mistral首款開源7B Mamba模型「埃及艷后」效果驚艷
關鍵字:模型,架構,上下文,基準,優勢
文章來源:新智元
內容字數:0字
內容摘要:
新智元報道編輯:編輯部
【新智元導讀】最近,7B小模型又成為了AI巨頭們競相追趕的潮流。繼谷歌的Gemma2 7B后,Mistral今天又發布了兩個7B模型,分別是針對STEM學科的Mathstral,以及使用Mamaba架構的代碼模型Codestral Mamba。Mistral又驚喜上新了!
就在今天,Mistral發布了兩款小模型:Mathstral 7B和Codestral Mamba 7B。
首先是專為數學推理和科學發現設計的Mathstral 7B。
在MATH基準測試中,它獲得了56.6% pass@1的成績,比Minerva 540B提高了20%以上。Mathstral在MATH上的得分為68.4%,使用獎勵模型得分為74.6%。
而代碼模型Codestral Mamba,是首批采用Mamba 2架構的開源模型之一。
它是可用的7B代碼模型中最佳的,使用256k token的上下文長度進行訓練。
兩款模型均在Apache 2.0許可證下發布,目前權重都已上傳HuggingFace倉庫。
Hugging Face地址:https://huggingface.co/mis
原文鏈接:原作親自下場!Mistral首款開源7B Mamba模型「埃及艷后」效果驚艷
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...