零一萬物,Yi-6B 和 Yi-34B 大模型官網(wǎng)
零一萬物-AI2.0大模型技術(shù)和應(yīng)用的全球公司
網(wǎng)站服務(wù):Yi-34B,Yi-6B,零一萬物。
https://huggingface.co/01-ai/Yi-34Bhttps://www.modelscope.cn/models/01ai/Yi-34B/summaryhttps://github.com/01-ai/Yihttps://huggingface.co/01-ai/Yi-6Bhttps://www.modelscope.cn/models/01ai/Yi-6B/summaryhttps://github.com/01-ai/Yi11 月 6 日,零一萬物正式發(fā)布「Yi」系列預(yù)訓(xùn)練開源大模型,包括了?Yi-6B 和 Yi-34B 兩個(gè)版本,給了開源大模型社區(qū)「一點(diǎn)小小的震撼」。根據(jù) Hugging Face 英文開源社區(qū)平臺(tái)和 C-Eval 中文評(píng)測的最新榜單,Yi-34B 預(yù)訓(xùn)練模型取得了多項(xiàng) SOTA 國際最佳性能指標(biāo)認(rèn)可,成為全球開源大模型「雙料冠軍」,擊敗了 LLaMA2 和 Falcon 等開源競品。Yi-34B 也成為迄今為止唯一成功登頂 Hugging Face 全球開源模型排行榜的國產(chǎn)模型。以小博大,登頂全球英文及中文權(quán)威大模型榜單No 1我們了解到,在 Hugging Face 英文測試公開榜單 Pretrained 預(yù)訓(xùn)練開源模型排名中,Yi-34B 的各項(xiàng)指標(biāo)表現(xiàn)亮眼,以 70.72 的分?jǐn)?shù)位列全球第一,以小博大,碾壓 LLaMA2-70B 和 Falcon-180B 等眾多大尺寸模型。在參數(shù)量和性能方面,Yi-34B 相當(dāng)于只用了不及 LLaMA2-70B 一半、Falcon-180B 五分之一的參數(shù)量,取得了在各項(xiàng)測試任務(wù)中超越全球領(lǐng)跑者的成績。憑借出色表現(xiàn),Yi-34B 躋身目前世界范圍內(nèi)開源最強(qiáng)基礎(chǔ)模型之列。? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?來源:https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
同時(shí)作為國產(chǎn)大模型, 李開復(fù)表示,Yi-34B 更「懂」中文,在 C-Eval 中文權(quán)威榜單排行榜上超越了全球所有開源模型。相較于大模型最強(qiáng)王者 GPT-4,Yi-34B 在 CMMLU、E-Eval、Gaokao 三個(gè)主要中文指標(biāo)上具有絕對(duì)優(yōu)勢,凸顯中文世界的優(yōu)異能力,能夠更好地滿足國內(nèi)市場需求。從更為全面的評(píng)估看,在全球大模型各項(xiàng)評(píng)測中最關(guān)鍵的「MMLU」(Massive Multitask Language Understanding,大規(guī)模多任務(wù)語言理解)、BBH 等反映模型綜合能力的評(píng)測集上,Yi-34B 表現(xiàn)最為突出,在通用能力、知識(shí)推理、閱讀理解等多項(xiàng)指標(biāo)評(píng)比中全部勝出,與 Hugging Face 評(píng)測高度一致。不過,與 LLaMA2 一樣,Yi 系列開源大模型在 GSM8k、MBPP 的數(shù)學(xué)和代碼評(píng)測表現(xiàn)略遜 GPT 模型。未來,Yi 系列大模型將推出專攻代碼能力和數(shù)學(xué)能力的繼續(xù)訓(xùn)練模型。在對(duì)大模型實(shí)戰(zhàn)效果至關(guān)重要的上下文窗口方面,此次開源的 Yi-34B 發(fā)布了全球最長、支持 200K 超長上下文窗口版本,可以處理約 40 萬漢字超長文本輸入,大致相當(dāng)于一本《儒林外史》的長度。相比之下,OpenAI 的 GPT-4 上下文窗口只有 32K,文字處理量約 2.5 萬字。
零一萬物,Yi-6B 和 Yi-34B 大模型網(wǎng)址入口
https://01.ai/

OpenI小編發(fā)現(xiàn)零一萬物,Yi-6B 和 Yi-34B 大模型網(wǎng)站非常受用戶歡迎,請(qǐng)?jiān)L問零一萬物,Yi-6B 和 Yi-34B 大模型網(wǎng)址入口試用。