秒殺700億Llama 2!最新國產(chǎn)大模型亮相,無需申請即可免費商用,背后公司來自私募巨頭
AIGC動態(tài)歡迎閱讀
原標題:秒殺700億Llama 2!最新國產(chǎn)大模型亮相,無需申請即可免費商用,背后公司來自私募巨頭
關(guān)鍵字:模型,能力,參數(shù),數(shù)學,版本
文章來源:量子位
內(nèi)容字數(shù):3989字
內(nèi)容摘要:豐色 發(fā)自 凹非寺量子位 | 公眾號QbitAI國產(chǎn)大模型剛剛出了一位全新選手:參數(shù)670億的DeepSeek。它在近20個中英文的公開評測榜單上直接超越了同量級、700億的Llama 2。并尤其以推理、數(shù)學和編碼能力為突出。其中在數(shù)學能力上,它測了Grok剛剛參與過的匈牙利今年最新的高中數(shù)學考試題,得了65分。對比Grok當時公布的成績:59分,以及GPT-4的68分,表現(xiàn)十分出色。DeepSeek主打一個發(fā)布即開源:共包含70億和670億兩個參數(shù)版本,每個版本均含基礎(chǔ)模型和指令微調(diào)模型,無需申請,即可免費商用。同時,它已開放了全面內(nèi)測,注冊一下就能玩。Ps. DeepSeek的中文能力在GPT-3.5之上,可以使用中文進行測試。在上,DeepSeek也引起了一大批技術(shù)同行的關(guān)注:早期測試過的人表示沒毛病。還有人贊譽DeepSeek彌補了開源LLM在數(shù)學和編碼上的短板。那么,Deep…
原文鏈接:點此閱讀原文:秒殺700億Llama 2!最新國產(chǎn)大模型亮相,無需申請即可免費商用,背后公司來自私募巨頭
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...