別等了!速來體驗(yàn) GLM-4-9B-Chat
AIGC動態(tài)歡迎閱讀
原標(biāo)題:別等了!速來體驗(yàn) GLM-4-9B-Chat
關(guān)鍵字:模型,教程,地址,小時(shí),頁面
文章來源:HyperAI超神經(jīng)
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
昨日,智譜 AI 發(fā)布了基座大模型 GLM-4 的最新開源成果——GLM-4-9B,首次擁有了多模態(tài)能力。官方給出的數(shù)據(jù)顯示,對比訓(xùn)練量更多的 Llama-3-8B 模型,GLM-4-9B 在中文學(xué)科方面的提升高達(dá) 50%,在多模態(tài)方面可以比肩 GPT-4V。
在上下文長度上,GLM-4-9B 實(shí)現(xiàn)了從 128K 到 1M 的升級跨越,相當(dāng)于能夠一口氣消化 125 篇論文!此外,其模型詞表從 6 萬升級到了 15 萬,在中英文之外的語言編碼效率平均提升了 30%,可以更快處理小語種的任務(wù)。
為了讓大家第一時(shí)間體驗(yàn)到這個(gè)自稱「超越 Llama3-8B」的開源模型,OpenBayes 平臺公共模型板塊現(xiàn)已上線了「GLM-4-9B-Chat」模型,支持一鍵 input,跳過漫長的下載、上傳時(shí)間,直接開啟快樂部署。
公共模型地址:
https://go.openbayes.com/F7pbS
不僅如此,「一鍵部署 GLM-4-9B-Chat Demo」也已經(jīng)同步上線至 OpenBayes 平臺公共教程板塊,無需輸入任何命令、點(diǎn)擊克隆即可立即開始體驗(yàn) GLM-4-9B-Chat 的卓越性能。
公
原文鏈接:別等了!速來體驗(yàn) GLM-4-9B-Chat
聯(lián)系作者
文章來源:HyperAI超神經(jīng)
作者微信:HyperAI
作者簡介:解構(gòu)技術(shù)先進(jìn)性與普適性,解讀更前沿的 AIForScience 案例