120億Stable LM 2上線即開源!2萬億token訓(xùn)練,碾壓Llama 2 70B
AIGC動態(tài)歡迎閱讀
原標(biāo)題:120億Stable LM 2上線即開源!2萬億token訓(xùn)練,碾壓Llama 2 70B
關(guān)鍵字:模型,報告,性能,數(shù)據(jù),基準(zhǔn)
文章來源:新智元
內(nèi)容字數(shù):5257字
內(nèi)容摘要:
新智元報道編輯:編輯部
【新智元導(dǎo)讀】Stability AI推出Stable LM 2 12B模型,作為其新模型系列的進一步升級,該模型基于七種語言的2萬億Token進行訓(xùn)練,擁有更多參數(shù)和更強性能,據(jù)稱在某些基準(zhǔn)下能超越Llama 2 70B。繼16億輕量級Stable LM 2推出之后,12B參數(shù)的版本在今天亮相了。
見狀,不少網(wǎng)友紛紛喊話:干的漂亮!但,Stable Diffusion 3啥時候出啊?總得來說,Stable LM 2 12B參數(shù)更多,性能更強。
120億參數(shù)版本包含了基礎(chǔ)模型和指令微調(diào)模型,并在七種多語言,高達2萬億Token數(shù)據(jù)集上完成訓(xùn)練。
在基準(zhǔn)測試中,其性能趕超Llama 2 70B等開源模型。
官博介紹,最新版本的模型兼顧了性能、效率、內(nèi)存需求和速度,同時繼續(xù)采用了Stable LM 2 1.6B模型的框架。
通過這次更新,研究人員還為開發(fā)者提供了一個透明而強大的工具,以推動AI語言技術(shù)的創(chuàng)新。
模型地址:https://huggingface.co/stabilityai/stablelm-2-12b
雖然目前只支持4K的上下文窗口,但你先別急。
原文鏈接:120億Stable LM 2上線即開源!2萬億token訓(xùn)練,碾壓Llama 2 70B
聯(lián)系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點關(guān)注人工智能、機器人等前沿領(lǐng)域發(fā)展,關(guān)注人機融合、人工智能和機器人對人類社會與文明進化的影響,領(lǐng)航中國新智能時代。