MOSS – 復(fù)旦大模型
復(fù)旦大學(xué)ChatGPT-MOSS官網(wǎng)入口網(wǎng)址,復(fù)旦大學(xué)MOSS是一個支持中英雙語和多種插件的開源對話語言模型,具有160億參數(shù)。
標(biāo)簽:AIGC開發(fā)平臺 AI大模型 AI應(yīng)用接口API AI開放平臺 MOSS大模型AI應(yīng)用接口API AI開放平臺 MOSS MOSS開源項(xiàng)目 復(fù)旦大模型 開源MOSS復(fù)旦大模型官網(wǎng)
復(fù)旦大學(xué)MOSS是一個支持中英雙語和多種插件的開源對話語言模型,具有160億參數(shù)。MOSS基座語言模型在約七千億中英文以及代碼單詞上預(yù)訓(xùn)練得到,后續(xù)經(jīng)過對話指令微調(diào)、插件增強(qiáng)學(xué)習(xí)和人類偏好訓(xùn)練具備多輪對話能力及使用多種插件的能力。提供AI對話, ChatGPT, AI對話, 國產(chǎn)大模型, MOSS,服務(wù)。An open-source tool-augmented conversational language model from Fudan University – GitHub – OpenLMLab/MOSS: An open-source tool-augmented conversational language model from Fudan University
MOSS復(fù)旦大模型網(wǎng)址入口

OpenI小編發(fā)現(xiàn)復(fù)旦大學(xué)ChatGPT-MOSS網(wǎng)站非常受用戶歡迎,請?jiān)L問復(fù)旦大學(xué)ChatGPT-MOSS網(wǎng)址入口試用。
復(fù)旦大模型MOSS,正式開源了!
作為國內(nèi)首個開放測試的類ChatGPT產(chǎn)品,MOSS開源地址一放出,又沖上知乎熱搜:
從官網(wǎng)介紹來看,MOSS是一個擁有160億參數(shù)的開源對話語言模型。
它由約7000億中英文及代碼單詞預(yù)訓(xùn)練得到,精度要求不那么高的話,甚至可以在單張3090顯卡上運(yùn)行。
MOSS支持中英雙語,擁有多輪對話和使用多種插件雙重能力,具備搜索引擎、文生圖、計(jì)算器、方程求解的“技能點(diǎn)”。
目前,MOSS在GitHub上已有2.3k Star,熱度還在持續(xù)上漲中。
那么,MOSS究竟開源了哪些項(xiàng)目,目前有哪些功能?一起來看看。
會解方程,也能生成圖片
據(jù)了解,這次MOSS開源的是第三輪迭代版本,名叫MOSS 003。
當(dāng)然,MOSS 003也并非開源了全部模型,目前主要開放的是基座預(yù)訓(xùn)練模型,最終模型即將在近期開源:
此前,MOSS已經(jīng)經(jīng)歷了兩版迭代,一版是公開邀請內(nèi)測的MOSS 002版本,另一版是內(nèi)部測試版本OpenChat 001。
三月份大伙兒見證的“國內(nèi)首個開放測試的ChatGPT”,正是MOSS 002版本。
最新這個版本展現(xiàn)的功能效果如何?
MOSS團(tuán)隊(duì)放出了它多輪對話、解方程、寫代碼、生成圖片和回答道德倫理等示例。
這是多輪對話的展示效果,具備資料追根溯源的能力:
這是做數(shù)學(xué)題的示例,包括雞兔同籠問題:
也包括生成圖片功能:
還有近期網(wǎng)友熱議的AI道德性問題:
當(dāng)然,這波里面也不乏“砸場子”的網(wǎng)友。
例如官方GitHub問答中,有網(wǎng)友很想了解它的中文能力和chatglm6b相比誰更好,下面有網(wǎng)友調(diào)侃:
你是來砸場子的么?
這也是因?yàn)榇饲皥F(tuán)隊(duì)在MOSS 002公開測試時(shí)曾經(jīng)表示過,MOSS的中文能力不算太好,這也與訓(xùn)練數(shù)據(jù)有關(guān)。
除此之外,團(tuán)隊(duì)這次還開源了一部分訓(xùn)練數(shù)據(jù)。
至于完整數(shù)據(jù),復(fù)旦MOSS團(tuán)隊(duì)表示“近期會全部開源”。
國內(nèi)最先發(fā)布的ChatGPT產(chǎn)品
MOSS取自于《流浪地球》里面那個擁有自我意識的AI。
它由復(fù)旦自然語言處理實(shí)驗(yàn)室邱錫鵬團(tuán)隊(duì)研發(fā),2月20日正式發(fā)布。
當(dāng)時(shí)國內(nèi)一眾大廠還在陸續(xù)高調(diào)官宣要造ChatGPT,誰都沒想到它就這么一聲不吭地殺了出來。
所以盡管MOSS的參數(shù)量比ChatGPT小了一個量級,大家還是蜂擁而上,把服務(wù)器都給擠爆了。
而發(fā)布沒過一周,復(fù)旦大學(xué)教授邱錫鵬就在演講中提出,如果優(yōu)化順利,計(jì)劃在三月底開源MOSS。
因?yàn)樵谒磥恚?br />人們之所以很容易有“卡脖子”問題,是因?yàn)槿狈σ粋€好的行業(yè)生態(tài)。
就拿ChatGPT來說,OpenAI公司只需專注做好模型,算力、數(shù)據(jù)和系統(tǒng)則交給其他公司。反觀國內(nèi),很多公司在做大型語言模型時(shí)所有環(huán)節(jié)都需要自己做,每家的數(shù)據(jù)和算力也有限,結(jié)果是每家都做不大。在發(fā)展過程中,大型語言模型訓(xùn)練與在線推理成本過高也是一個重大問題。
因此,他們一開始就考慮要把MOSS開源而不是商業(yè)化。
有了這樣一個基座,大家就不用重復(fù)開發(fā)底層技術(shù),可以在上面接不同的細(xì)分領(lǐng)域。
如今,雖晚了快一個月,MOSS也說到做到了。
你試用過復(fù)旦MOSS開源模型了嗎?效果如何?
MOSS開源項(xiàng)目地址:
[1]https://github.com/OpenLMLab/MOSS
[2]https://huggingface.co/fnlp/moss-moon-003-base
[3]https://huggingface.co/fnlp/moss-moon-003-sft
[4]https://huggingface.co/fnlp/moss-moon-003-sft-plugin
數(shù)據(jù)評估
本站OpenI提供的MOSS – 復(fù)旦大模型都來源于網(wǎng)絡(luò),不保證外部鏈接的準(zhǔn)確性和完整性,同時(shí),對于該外部鏈接的指向,不由OpenI實(shí)際控制,在2023年 5月 13日 下午4:40收錄時(shí),該網(wǎng)頁上的內(nèi)容,都屬于合規(guī)合法,后期網(wǎng)頁的內(nèi)容如出現(xiàn)違規(guī),可以直接聯(lián)系網(wǎng)站管理員進(jìn)行刪除,OpenI不承擔(dān)任何責(zé)任。