原作親自下場!Mistral首款開源7B Mamba模型「埃及艷后」效果驚艷
AIGC動態(tài)歡迎閱讀
原標(biāo)題:原作親自下場!Mistral首款開源7B Mamba模型「埃及艷后」效果驚艷
關(guān)鍵字:模型,架構(gòu),上下文,基準(zhǔn),優(yōu)勢
文章來源:新智元
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
新智元報(bào)道編輯:編輯部
【新智元導(dǎo)讀】最近,7B小模型又成為了AI巨頭們競相追趕的潮流。繼谷歌的Gemma2 7B后,Mistral今天又發(fā)布了兩個(gè)7B模型,分別是針對STEM學(xué)科的Mathstral,以及使用Mamaba架構(gòu)的代碼模型Codestral Mamba。Mistral又驚喜上新了!
就在今天,Mistral發(fā)布了兩款小模型:Mathstral 7B和Codestral Mamba 7B。
首先是專為數(shù)學(xué)推理和科學(xué)發(fā)現(xiàn)設(shè)計(jì)的Mathstral 7B。
在MATH基準(zhǔn)測試中,它獲得了56.6% pass@1的成績,比Minerva 540B提高了20%以上。Mathstral在MATH上的得分為68.4%,使用獎(jiǎng)勵(lì)模型得分為74.6%。
而代碼模型Codestral Mamba,是首批采用Mamba 2架構(gòu)的開源模型之一。
它是可用的7B代碼模型中最佳的,使用256k token的上下文長度進(jìn)行訓(xùn)練。
兩款模型均在Apache 2.0許可證下發(fā)布,目前權(quán)重都已上傳HuggingFace倉庫。
Hugging Face地址:https://huggingface.co/mis
原文鏈接:原作親自下場!Mistral首款開源7B Mamba模型「埃及艷后」效果驚艷
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對人類社會與文明進(jìn)化的影響,領(lǐng)航中國新智能時(shí)代。