FastChat[小羊駝]官網
以 Meta 開源 LLaMA(直譯為「大羊駝」)系列模型為起點,斯坦福大學等機構的研究人員先后在其上進行「二創」,開源了基于 LLaMA 的 Alpaca(羊駝)、Alpaca-Lora、Luotuo(駱駝)等輕量級類 ChatGPT 模型,大大降低了這類模型的研究、應用門檻,訓練、推理成本一再降低。
由于「二創」過于豐富,生物學羊駝屬的英文單詞都快不夠用了,但富有創意的研究者似乎總能給他們的模型找到新名字。近日,來自加州大學伯克利分校、卡內基梅隆大學、斯坦福大學、加州大學圣迭戈分校的研究者們又提出了一個新的模型 ——Vicuna(小羊駝)。這個模型也是基于 LLaMA,不過用到的是 13B 參數量的版本(作者表示,初步人工評測顯示 13B 版本比 7B 版本模型要好不少,不過這不是一個嚴謹的結論)。
網站服務:AI大模型平臺,FastChat,小羊駝,AI大模型平臺,FastChat。
FastChat[小羊駝]簡介
An open platform for training, serving, and evaluating large language models. Release repo for Vicuna and Chatbot Arena. – lm-sys/FastChat
以 Meta 開源 LLaMA(直譯為「大羊駝」)系列模型為起點,斯坦福大學等機構的研究人員先后在其上進行「二創」,開源了基于 LLaMA 的 Alpaca(羊駝)、Alpaca-Lora、Luotuo(駱駝)等輕量級類 ChatGPT 模型,大大降低了這類模型的研究、應用門檻,訓練、推理成本一再降低。
由于「二創」過于豐富,生物學羊駝屬的英文單詞都快不夠用了,但富有創意的研究者似乎總能給他們的模型找到新名字。近日,來自加州大學伯克利分校、卡內基梅隆大學、斯坦福大學、加州大學圣迭戈分校的研究者們又提出了一個新的模型 ——Vicuna(小羊駝)。這個模型也是基于 LLaMA,不過用到的是 13B 參數量的版本(作者表示,初步人工評測顯示 13B 版本比 7B 版本模型要好不少,不過這不是一個嚴謹的結論)。
FastChat[小羊駝]官網入口網址
https://github.com/lm-sys/FastChat
OpenI小編發現FastChat[小羊駝]網站非常受用戶歡迎,請訪問FastChat[小羊駝]網址入口試用。
數據統計
數據評估
本站OpenI提供的FastChat[小羊駝]都來源于網絡,不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2024年 11月 8日 下午1:25收錄時,該網頁上的內容,都屬于合規合法,后期網頁的內容如出現違規,可以直接聯系網站管理員進行刪除,OpenI不承擔任何責任。