AIGC動態歡迎閱讀
原標題:開源大模型超越GPT-3.5!爆火MoE實測結果出爐,網友:OpenAI越來越沒護城河了
文章來源:量子位
內容字數:5938字
內容摘要:克雷西 魚羊 發自 凹非寺量子位 | 公眾號 QbitAI一條神秘磁力鏈接引爆整個AI圈,現在,正式測評結果終于來了:首個開源MoE大模型Mixtral 8x7B,已經達到甚至超越了Llama 2 70B和GPT-3.5的水平。(對,就是傳聞中GPT-4的同款方案。)并且由于是稀疏模型,處理每個token僅用了12.9B參數就做到了這般成績,其推理速度和成本也與12.9B的密集模型相當。消息一出,再次在社交媒體上掀起討論熱潮。OpenAI創始成員Andrej Karpathy第一時間趕到現場整理起了筆記,還高亮出了重點:這家“歐版OpenAI”透露出的最強模型,還只是“中杯”。p.s. Mixtral 8×7B甚至只是小杯……英偉達AI科學家Jim Fan則贊說:每個月都會有十幾個新的模型冒出來,但真正能經得住檢驗的卻寥寥無幾,能引發大家伙熱烈關注的就更少了。并且這波啊,不僅是模型背后公司…
原文鏈接:點此閱讀原文:開源大模型超越GPT-3.5!爆火MoE實測結果出爐,網友:OpenAI越來越沒護城河了
聯系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...