中電信星辰AI大模型TeleChat-7B評(píng)測(cè)

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:中電信星辰AI大模型TeleChat-7B評(píng)測(cè)
關(guān)鍵字:報(bào)告,用戶(hù),問(wèn)題,樣品,模型
文章來(lái)源:算法邦
內(nèi)容字?jǐn)?shù):23441字
內(nèi)容摘要:
智猩猩與智東西將于4月18-19日在北京共同舉辦2024中國(guó)生成式AI大會(huì),阿里巴巴通義千問(wèn)大模型技術(shù)負(fù)責(zé)人周暢,「清華系Sora」生數(shù)科技CEO唐家渝,云天勵(lì)飛“云天天書(shū)”大模型技術(shù)負(fù)責(zé)人余曉填,Open-Sora開(kāi)發(fā)團(tuán)隊(duì)潞晨科技創(chuàng)始人尤洋,鴻博股份副總裁、英博數(shù)科CEO周韡韡,優(yōu)必選研究院執(zhí)行院長(zhǎng)焦繼超,科大訊飛人形機(jī)器人首席科學(xué)家季超,騰訊研究科學(xué)家張馳等20+位嘉賓已確認(rèn)帶來(lái)演講和報(bào)告,歡迎報(bào)名。前言
受中電信 AI 科技有限公司的邀請(qǐng),為他們近期開(kāi)源的TeleChat-7B大模型做一個(gè)評(píng)測(cè)。
TeleChat-7B是由中電信 AI 科技有限公司發(fā)的第一個(gè)千億級(jí)別大模型,基于transformer decoder架構(gòu)和清洗后的1TB高質(zhì)量數(shù)據(jù)訓(xùn)練而成,取得了相同參數(shù)量級(jí)別的SOTA性能,并且將推理代碼和清洗后的訓(xùn)練數(shù)據(jù)都進(jìn)行了開(kāi)源。開(kāi)源地址見(jiàn):https://github.com/Tele-AI/Telechat 。此外,在開(kāi)源倉(cāng)庫(kù)中也提供了基于DeepSpeed的LoRA微調(diào)方案以及國(guó)產(chǎn)化適配的訓(xùn)練和推理方案。本篇文章主要來(lái)體驗(yàn)一下這個(gè)模型,測(cè)試一下筆者比較關(guān)心的文學(xué)創(chuàng)作以及
原文鏈接:中電信星辰AI大模型TeleChat-7B評(píng)測(cè)
聯(lián)系作者
文章來(lái)源:算法邦
作者微信:allplusai
作者簡(jiǎn)介:智猩猩矩陣賬號(hào)之一,連接AI新青年,講解研究成果,分享系統(tǒng)思考。

粵公網(wǎng)安備 44011502001135號(hào)