阿里大模型春節(jié)禮包來(lái)了:代碼可執(zhí)行率超GPT-4,1.5版本全系列開源
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:阿里大模型春節(jié)禮包來(lái)了:代碼可執(zhí)行率超GPT-4,1.5版本全系列開源
關(guān)鍵字:模型,能力,版本,阿里,代碼
文章來(lái)源:量子位
內(nèi)容字?jǐn)?shù):2904字
內(nèi)容摘要:
白交 發(fā)自 凹非寺量子位 | 公眾號(hào) QbitAI阿里大模型,再次開源大放送——
發(fā)布Qwen1.5版本,直接放出六種尺寸。
最大的Qwen1.5-72B-Chat模型,在MT-Bench和Alpaca-Eval v2上,超越Claude-2.1、GPT-3.5-Turbo-0613。
甚至在部分任務(wù)中,得分已經(jīng)超過(guò)前幾個(gè)版本的GPT-4。
各地的開發(fā)者前來(lái)祝賀,其中0.5B的迷你版讓不少人都迫不及待想試試。
并且還順便問(wèn)問(wèn),那個(gè)多模態(tài)大模型Qwen-VL-Max有可能開源嗎?
除此之外,還集成到了Hugging face transformers,以及同主流的十余個(gè)框架合作,從微調(diào)、部署、量化到本地推理一步到位。
Qwen1.5開源此次開源發(fā)布,主要有四個(gè)方面值得關(guān)注。
首先,模型系列很多,直接開源了6種尺寸(0.5B、1.8B、4B、7B、14B、72B)的基礎(chǔ)模型(base)、模型(chat)以及量化模型(包括Int4 和 Int8 GPTQ 模型,以及 AWQ 和 GGUF 量化模型)。
其次,更多的生態(tài)融入。
目前,Qwen1.5的代碼合并到Hugging Face tr
原文鏈接:阿里大模型春節(jié)禮包來(lái)了:代碼可執(zhí)行率超GPT-4,1.5版本全系列開源
聯(lián)系作者
文章來(lái)源:量子位
作者微信:QbitAI
作者簡(jiǎn)介:追蹤人工智能新趨勢(shì),關(guān)注科技行業(yè)新突破