開源模型新紀錄:超越Mixtral 8x7B Instruct的模型來了

AIGC動態(tài)歡迎閱讀
原標題:開源模型新紀錄:超越Mixtral 8x7B Instruct的模型來了
關(guān)鍵字:模型,數(shù)據(jù),基準,性能,鏈接
文章來源:機器之心
內(nèi)容字數(shù):3247字
內(nèi)容摘要:
機器之心報道
編輯:張倩又有新的開源模型可以用了。
從 Llama、Llama 2 到 Mixtral 8x7B,開源模型的性能記錄一直在被刷新。由于 Mistral 8x7B 在大多數(shù)基準測試中都優(yōu)于 Llama 2 70B 和 GPT-3.5,因此它也被認為是一種「非常接近 GPT-4」的開源選項。
在前段時間的一篇論文中,該模型背后的公司 Mistral AI 公布了 Mixtral 8x7B 的一些技術(shù)細節(jié),并推出了 Mixtral 8x7B – Instruct 模型。該模型性能在人類評估基準上明顯超過了 GPT-3.5 Turbo、Claude-2.1、Gemini Pro 和 Llama 2 70B 模型。在 BBQ 和 BOLD 等基準中,Mixtral – Instruct 也顯示出更少的偏見。
但最近,Mixtral Instruct 也被超越了。一家名叫 Nous Research 的公司宣布,他們基于 Mixtral 8x7B 訓(xùn)練的新模型 ——Nous-Hermes-2 Mixtral 8x7B 在很多基準上都超過了 Mixtral Instruct,
原文鏈接:開源模型新紀錄:超越Mixtral 8x7B Instruct的模型來了
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...

粵公網(wǎng)安備 44011502001135號