MOSS(復旦大模型)官網
復旦大模型MOSS,正式開源了
網站服務:Moss,MOSS開源項目,復旦大模型,開源。
復旦大模型MOSS,正式開源了!MOSS開源地址一放出,又沖上知乎熱搜:從官網介紹來看,MOSS是一個擁有160億參數的開源對話語言模型。它由約7000億中英文及代碼單詞預訓練得到,精度要求不那么高的話,甚至可以在單張3090顯卡上運行。MOSS支持中英雙語,擁有多輪對話和使用多種插件雙重能力,具備搜索引擎、文生圖、計算器、方程求解的“技能點”。目前,MOSS在GitHub上已有2.3k Star,熱度還在持續上漲中。那么,MOSS究竟開源了哪些項目,目前有哪些功能?一起來看看。會解方程,也能生成圖片據了解,這次MOSS開源的是第三輪迭代版本,名叫MOSS 003。當然,MOSS 003也并非開源了全部模型,目前主要開放的是基座預訓練模型,最終模型即將在近期開源:此前,MOSS已經經歷了兩版迭代,一版是公開邀請內測的MOSS 002版本,另一版是內部測試版本OpenChat 001。三月份大伙兒見證的“國內首個開放測試的GPT”,正是MOSS 002版本。最新這個版本展現的功能效果如何?MOSS團隊放出了它多輪對話、解方程、寫代碼、生成圖片和回答道德倫理等示例。這是多輪對話的展示效果,具備資料追根溯源的能力:這是做數學題的示例,包括雞兔同籠問題:也包括生成圖片功能:還有近期網友熱議的AI道德性問題:當然,這波里面也不乏“砸場子”的網友。例如官方GitHub問答中,有網友很想了解它的中文能力和chatglm6b相比誰更好,下面有網友調侃:你是來砸場子的么?這也是因為此前團隊在MOSS 002公開測試時曾經表示過,MOSS的中文能力不算太好,這也與訓練數據有關。除此之外,團隊這次還開源了一部分訓練數據。至于完整數據,復旦MOSS團隊表示“近期會全部開源”。國內最先發布的GPT產品MOSS取自于《流浪地球》里面那個擁有自我意識的AI。它由復旦自然語言處理實驗室邱錫鵬團隊研發,2月20日正式發布。當時國內一眾大廠還在陸續高調官宣要造GPT,誰都沒想到它就這么一聲不吭地殺了出來。所以盡管MOSS的參數量比GPT小了一個量級,大家還是蜂擁而上,把服務器都給擠爆了。而發布沒過一周,復旦大學教授邱錫鵬就在演講中提出,如果優化順利,計劃在三月底開源MOSS。因為在他看來:人們之所以很容易有“卡脖子”問題,是因為缺乏一個好的行業生態。就拿GPT來說,AI公司只需專注做好模型,算力、數據和系統則交給其他公司。反觀國內,很多公司在做大型語言模型時所有環節都需要自己做,每家的數據和算力也有限,結果是每家都做不大。在發展過程中,大型語言模型訓練與在線推理成本過高也是一個重大問題。因此,他們一開始就考慮要把MOSS開源而不是商業化。有了這樣一個基座,大家就不用重復開發底層技術,可以在上面接不同的細分領域。如今,雖晚了快一個月,MOSS也說到做到了。你試用過復旦MOSS開源模型了嗎?效果如何?MOSS開源項目地址:[1]https://github.com/OpenLMLab/MOSS[2]https://huggingface.co/fnlp/moss-moon-003-base[3]https://huggingface.co/fnlp/moss-moon-003-sft[4]https://huggingface.co/fnlp/moss-moon-003-sft-plugin
MOSS(復旦大模型)網址入口
OpenI小編發現MOSS(復旦大模型)網站非常受用戶歡迎,請訪問MOSS(復旦大模型)網址入口試用。
數據統計
數據評估
本站OpenI提供的MOSS(復旦大模型)都來源于網絡,不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2023年 9月 25日 下午9:13收錄時,該網頁上的內容,都屬于合規合法,后期網頁的內容如出現違規,可以直接聯系網站管理員進行刪除,OpenI不承擔任何責任。