騰訊混元大模型發(fā)布!全自研、參數(shù)規(guī)模超千億
AIGC動態(tài)歡迎閱讀
原標(biāo)題:騰訊混元大模型發(fā)布!全自研、參數(shù)規(guī)模超千億
關(guān)鍵字:騰訊,模型,能力,文本,機(jī)構(gòu)
文章來源:元動乾坤
內(nèi)容字?jǐn)?shù):2054字
內(nèi)容摘要:在今日舉行的2023騰訊全球數(shù)字生態(tài)大會上,騰訊集團(tuán)高級執(zhí)行副總裁、云與智慧產(chǎn)業(yè)事業(yè)群CEO湯道生正式發(fā)布騰訊混元大模型。據(jù)悉,該大模型為騰訊全鏈路自研大語言模型,參數(shù)規(guī)模超千億,預(yù)訓(xùn)練語料超2萬億tokens(大語言模型文本單位),具有中文創(chuàng)作能力、任務(wù)執(zhí)行能力和復(fù)雜語境下的邏輯推理能力。?可靠- 減少“胡言亂語”,幻覺相比主流開源大模型降低30%至50%。Prompt:寫一篇作文,嘗試論證關(guān)羽…
原文鏈接:點(diǎn)此閱讀原文:騰訊混元大模型發(fā)布!全自研、參數(shù)規(guī)模超千億
聯(lián)系作者
文章來源:元動乾坤
作者微信:gh_8c48c0c2d086
作者簡介:訂閱前沿信息技術(shù),了解活動動態(tài),分享技術(shù)信息
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...