普林斯頓開源34B數(shù)學(xué)大模型:性能媲美谷歌Minerva,參數(shù)少一半!550億token專業(yè)數(shù)據(jù)訓(xùn)練
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:普林斯頓開源34B數(shù)學(xué)大模型:性能媲美谷歌Minerva,參數(shù)少一半!550億token專業(yè)數(shù)據(jù)訓(xùn)練
關(guān)鍵字:數(shù)學(xué),模型,數(shù)據(jù),性能,問題
文章來(lái)源:新智元
內(nèi)容字?jǐn)?shù):4119字
內(nèi)容摘要:新智元報(bào)道編輯:青荻 潤(rùn)【新智元導(dǎo)讀】在數(shù)學(xué)領(lǐng)域,一個(gè)全新的時(shí)代即將到來(lái)。LLEMMA,一個(gè)強(qiáng)大的數(shù)學(xué)專用語(yǔ)言模型,正在帶來(lái)性的性能、數(shù)據(jù)集和解決方案。它不僅超越了現(xiàn)有開源模型,還為數(shù)學(xué)研究者們提供了開放的共享和合作機(jī)會(huì)。讓我們一起探索這個(gè)數(shù)學(xué)界的巨大突破。數(shù)學(xué),作為科學(xué)的基石,一直以來(lái)都是研究和創(chuàng)新的關(guān)鍵領(lǐng)域。最近,普林斯頓大學(xué)等七家機(jī)構(gòu)聯(lián)合發(fā)布了一個(gè)專門用于數(shù)學(xué)的大語(yǔ)言模型LLEMMA,性能媲美谷歌Minerva 62B,并公開了其模型、數(shù)據(jù)集和代碼,為數(shù)學(xué)研究帶來(lái)了前所未有的機(jī)會(huì)和資源。論文地址:https://arxiv.org/abs/2310.10631數(shù)據(jù)集地址:https://huggingface.co/datasets/EleutherAI/proof-pile-2項(xiàng)目地址:https://github.com/EleutherAI/math-lmLLEMMA承襲了…
原文鏈接:點(diǎn)此閱讀原文:普林斯頓開源34B數(shù)學(xué)大模型:性能媲美谷歌Minerva,參數(shù)少一半!550億token專業(yè)數(shù)據(jù)訓(xùn)練
聯(lián)系作者
文章來(lái)源:新智元
作者微信:AI_era
作者簡(jiǎn)介:智能+中國(guó)主平臺(tái),致力于推動(dòng)中國(guó)從互聯(lián)網(wǎng)+邁向智能+新紀(jì)元。重點(diǎn)關(guān)注人工智能、機(jī)器人等前沿領(lǐng)域發(fā)展,關(guān)注人機(jī)融合、人工智能和機(jī)器人對(duì)人類社會(huì)與文明進(jìn)化的影響,領(lǐng)航中國(guó)新智能時(shí)代。