標簽:專家

告別偏科,能玩轉多模態、多任務、多領域的強化智能體終于來了

機器之心報道 編輯:佳琦模型、專家智能體和數據集都已開源。隨著 Llama 3 發布,未來大模型的參數量已飆升至驚人的 4000 億。盡管每周幾乎都有一個聲稱性能...
閱讀原文

大模型MoE的前世今生,10個模型一文搞懂!

2024年3、4月這段時間,很多MoE模型扎堆發布,包括Qwen1.5-MoE、DBRX、Jamba和Mistral等。 下面這個表格列出了部分近期發布的MoE工作MoE模型目前風頭正勁,就...
閱讀原文

全球最大開源模型再刷爆紀錄!4800億參數MoE擊敗Llama 3、Mixtral

新智元報道編輯:編輯部 【新智元導讀】最大開源模型,再次刷爆紀錄!Snowflake的Arctic,以128位專家和4800億參數,成為迄今最大的開源模型。它的特點,是又...
閱讀原文

國內首個開源千億參數MoE大模型來了!性能超Grok-1,單張GPU可跑

APUS-xDAN-4.0(MoE)參數規模1360億,可在消費級顯卡4090上運行。 作者|程茜 編輯|心緣 智東西4月2日報道,今天,全球移動互聯網公司APUS與大模型創企新旦智...
閱讀原文

新開源之王來了!1320億參數,邏輯數理全面打贏Grok,還比Llama2-70B快1倍

魚羊 發自 凹非寺量子位 | 公眾號 QbitAI“最強”開源大模型之爭,又有新王入局: 大數據巨頭Databricks,剛剛發布MoE大模型DBRX,并宣稱: 它在基準測試中擊敗...
閱讀原文

一次性支持 200 萬字無損上下文!Kimi智能助手玩了個大的——月之暗面「登月」最新進展!

夕小瑤科技說 原創作者 | 王二狗讓大模型一次性無損地「吃下」一本書已經不是什么稀奇的事了,但如果我告訴你是下面??這樣一本近百萬字的書呢? 沒錯,這么瘋...
閱讀原文

馬斯克正式開源 Grok-1,成為全球最大的開源大模型

開源了 但又沒 完全開源今日凌晨,在一片質疑聲中,信守承諾的馬斯克卡在最后一日正式開源了 GroK。 好消息是, 馬斯克開源了 Grok 1.0 的完整代碼,壞消息是...
閱讀原文

突發:馬斯克Grok開源!

全球最大開源大模型!馬斯克Grok-1參數量3410億,正式開源。 作者|云鵬 編輯|心緣 6個月掏出3410億參數自研大模型,馬斯克說到做到! 智東西3月18日消息,就...
閱讀原文

馬斯克突然開源Grok:3140億參數巨無霸,免費可商用

魚羊 克雷西 發自 凹非寺量子位 | 公眾號 QbitAI馬斯克說到做到: 旗下大模型Grok現已開源! 代碼和模型權重已上線GitHub。官方信息顯示,此次開源的Grok-1是...
閱讀原文

GPT-4正接管人類數據專家!先驗知識讓LLM大膽預測,準確率堪比傳統方式

新智元報道編輯:桃子 【新智元導讀】終有一天,LLM可以成為人類數據專家,針對不同領域進行數據分析,大大解放AI研究員。在數據科學中,AI研究員經常面臨處...
閱讀原文

群魔亂舞:MoE大模型詳解

700個開發硬件免費申請?現金大獎!生成式 AI、機器人 AI、PC AI 三大賽道!AMD Pervasive AI 開發者挑戰賽報名火熱進行中,掃碼了解詳情并報名~導讀本文是知...
閱讀原文

斯坦福和OpenAI提出meta-prompting,最強零樣本prompting技術誕生了

來源:機器學習研究組訂閱 在我們的工作群里,經常會有一位管理者來協調每個人的工作并匯總工作成果。近日,斯坦福大學的 Mirac Suzgun 和 OpenAI 的 Adam Ta...
閱讀原文

國內首個!最火的MoE大模型APP來了,免費下載,人人可玩

明敏 發自 凹非寺量子位 | 公眾號 QbitAIMoE(混合專家)模型最近有多火,不用過多介紹了吧? 作為當下最頂尖、最前沿的大模型技術方向,MoE能在不增加推理成...
閱讀原文

打破MoE訓練效率與性能瓶頸,華為盤古稀疏大模型全新架構LocMoE出爐

機器之心專欄 機器之心編輯部2023 年 12 月,首個開源 MoE 大模型 Mixtral 8×7B 發布,在多種基準測試中,其表現近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理...
閱讀原文

將多模態大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

機器之心專欄 機器之心編輯部對于大型視覺語言模型(LVLM)而言,擴展模型可以有效提高模型性能。然而,擴大參數規模會顯著增加訓練和推理成本,因為計算中每...
閱讀原文