<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        微信大規(guī)模語言模型WeLM
        中國
        AI開放平臺AI文本寫作

        微信大規(guī)模語言模型WeLM

        該模型是一個尺寸合理的中文模型,能夠在零樣本以及少樣本的情境下完成包多語言任務(wù)在內(nèi)的多種NLP任務(wù)。

        標簽: DeepSeek-R1、V3滿血版免費用!- 字節(jié)Trae即可編程又可聊天

        體驗鏈接:https://welm.weixin.qq.com/docs/playground/
        API接口:https://welm.weixin.qq.com/docs/api/
        論文地址:https://arxiv.org/abs/2209.10372
        其他相關(guān)參考鏈接:
        微信版大語言模型來了:跨時空對話李白、教你高情商說話,在線可玩——量子位
        https://baijiahao.baidu.com/s?id=1746546375886224043&wfr=spider&for=pc


        大規(guī)模語言模型領(lǐng)域迎來新“選手”。近日,微信AI推出自研NLP大規(guī)模語言模型WeLM ,該模型是一個尺寸合理的中文模型,能夠在零樣本以及少樣本的情境下完成包多語言任務(wù)在內(nèi)的多種NLP任務(wù)。
        同時,微信AI團隊也提供了WeLM的體驗網(wǎng)頁和API接口,感興趣的用戶可前往https://welm.weixin.qq.com/docs/體驗和申請API接口,相關(guān)技術(shù)論文《WeLM: A Well-Read Pre-trained Language Model for Chinese》也已經(jīng)發(fā)布于論文預印本網(wǎng)站arXiv。
        NLP大模型迎新選手,WeLM提供交互式網(wǎng)頁PlayGround和API接口
        在近幾年自然語言處理(NLP)領(lǐng)域的發(fā)展浪潮中,OpenAI開發(fā)的自然語言處理模型GPT-3無疑風頭無兩,發(fā)布之初便以1750億參數(shù)規(guī)模的預訓練模型所表現(xiàn)出來的零樣本與小樣本學習能力刷新了人們的認知,也引爆了AI大模型研究的熱潮。
        對業(yè)界來說,預訓練大模型降低了AI應用的門檻,距離“AI把人類從重復性勞動中解放出來”的宏偉目標越來越近,目前,基于GPT-3,全球開發(fā)者已經(jīng)探索出包括編程、回復郵件、UI設(shè)計、回答數(shù)學問題、法律語言轉(zhuǎn)化、總結(jié)中心思想、推理、文本處理等廣泛應用場景,并且,各國研究者在多語言/多任務(wù)等角度的探索也正在譜寫大模型百家爭鳴的新篇章。
        而在國內(nèi)以中文為核心的大規(guī)模語言模型領(lǐng)域,微信AI推出的百億級別大規(guī)模語言模型WeLM,便是大模型百家爭鳴中的新選手。
        據(jù)介紹,WeLM是一個百億級別的中文模型,能夠在零樣本以及少樣本的情境下完成包括對話-采訪、閱讀理解、翻譯、改寫、續(xù)寫、多語言閱讀理解在內(nèi)的多種NLP任務(wù),并具備記憶能力、自我糾正和檢查能力。并且,WeLM具有尺寸合理的優(yōu)勢,在14項中文NLP任務(wù)上,WeLM的整體表現(xiàn)超出了所有同大小的模型,甚至能夠匹配比它大25倍的模型。
        以被普遍認為是更困難的NLP任務(wù)的文本風格轉(zhuǎn)換(改寫)為例,盡管用戶給出的5個例子和最后需要生成的例子并沒有重合的風格轉(zhuǎn)換類型,但WeLM擁有出色的舉一反三能力,通過學習少量的文本轉(zhuǎn)換例子即可達到對任意類型的文本轉(zhuǎn)換。并且,WeLM在對話-采訪、閱讀理解、翻譯、續(xù)寫等多個中文文本生成任務(wù)中有著同樣優(yōu)異的表現(xiàn)。

        除了具備強大的中文理解和生成能力,WeLM還擁有處理跨多語言(中英日)任務(wù)的能力。以“微信 AI 推出の WeLM 是一個 language model that いろいろなtaskをperformができる”這句混合中日英三國語言的文本為例,WeLM的翻譯相較Google翻譯更為精準。

        而且,在進一步微調(diào)后,WeLM可以擁有更好的零樣本學習能力,可以根據(jù)場景擁有更好的表現(xiàn)。目前,WeLM已經(jīng)部署應用于微信視頻號的部分場景中,未來在進一步優(yōu)化后還將應用于更多微信應用場景。
        同時,為進一步推動WeLM成為真正能落地且實用的工具,微信AI團隊還發(fā)布了一個供用戶體驗的交互式網(wǎng)頁PlayGround,并開放了用于訪問WeLM的API接口。
         

        目前,用戶可通過https://welm.weixin.qq.com/docs/體驗WeLM的相關(guān)能力,并通過調(diào)整配置以實現(xiàn)更貼近的文本生成效果。對于想接入WeLM的開發(fā)者,也可通過https://welm.weixin.qq.com/docs/api/填寫問卷后獲得WeLM的API Token并調(diào)用相應接口,將WeLM部署在自己的應用上。
        具有極強知識儲備,WeLM在14項中文NLP任務(wù)中表現(xiàn)亮眼
        據(jù)介紹,在純Encoder(Bert)、純Decoder(GPT) 以及Encoder-Decode(T5) 結(jié)構(gòu)等主流NLP模型路徑的選擇上,WeLM和GPT3、Google PaLM一樣,選擇了自回歸模型的路線。同時,考慮到不同的用戶對于模型效果和推理延遲會有考量或者取舍(trade-off),微信AI的WeLM訓練了1.3B、2.7B以及10B三個版本的模型,滿足不同用戶的調(diào)用需求。
        同時,在訓練數(shù)據(jù)上,微信AI團隊希望構(gòu)建一個足夠豐富、足夠干凈、足夠公平的數(shù)據(jù)集,為此研究團隊從Common Crawl下載了近兩年的中文網(wǎng)頁數(shù)據(jù),和大量的書籍、新聞。為了增強專業(yè)能力,微信AI團隊還在數(shù)據(jù)集補充了知識密集的論壇數(shù)據(jù)和一些學術(shù)論文,搜集完成后的全量數(shù)據(jù)10TB,其中包含了750G的英文數(shù)據(jù),并保留了部分日韓文。
        隨后,通過規(guī)則過濾和額外訓練的二分類fasttext模型,以及對測評相關(guān)數(shù)據(jù)的去除,數(shù)據(jù)集最終處理完的數(shù)據(jù)量為262B tokens。為了更好的平衡各個數(shù)據(jù)源的比重,微信AI團隊也對數(shù)據(jù)進行不同比重的采樣,最終,整體數(shù)據(jù)集的Topic分布相比 Common Crawl更加平滑。

         
        在與業(yè)界同級別的CPM、華為Pangu和百度Ernie3.0的對比測試中,WeLM表現(xiàn)出極強的知識儲備,在14項中文NLP任務(wù)上,WeLM 的整體表現(xiàn)超出了所有同大小的模型,甚至能夠匹配比它大25倍的模型。同時,在強大的中文理解和生成能力外,WeLM還有出色的多語言理解能力,用戶的輸入可以在中日英上絲滑切換。

        目前,WeLM的相關(guān)技術(shù)論文《WeLM: A Well-Read Pre-trained Language Model for Chinese》已經(jīng)發(fā)布于論文預印本網(wǎng)站arXiv,感興趣的用戶可前往https://arxiv.org/abs/2209.10372查看更多技術(shù)細節(jié)。
        在NLP領(lǐng)域,讓大模型成為真正能落地且實用的工具,是每一位NLP領(lǐng)域的研究者矢志不渝的方向。未來,微信AI也將針對WeLM進行進一步的微調(diào)優(yōu)化,進一步提升其在新任務(wù)上的泛化效果,也歡迎更多開發(fā)者、用戶前來體驗WeLM并提出寶貴意見和建議,幫助該模型早日成為真正能落地且實用的工具,共同探索人工智能的發(fā)展之路。

        微信大規(guī)模語言模型WeLM:https://welm.weixin.qq.com/docs/playground

        數(shù)據(jù)統(tǒng)計

        數(shù)據(jù)評估

        微信大規(guī)模語言模型WeLM瀏覽人數(shù)已經(jīng)達到792,如你需要查詢該站的相關(guān)權(quán)重信息,可以點擊"5118數(shù)據(jù)""愛站數(shù)據(jù)""Chinaz數(shù)據(jù)"進入;以目前的網(wǎng)站數(shù)據(jù)參考,建議大家請以愛站數(shù)據(jù)為準,更多網(wǎng)站價值評估因素如:微信大規(guī)模語言模型WeLM的訪問速度、搜索引擎收錄以及索引量、用戶體驗等;當然要評估一個站的價值,最主要還是需要根據(jù)您自身的需求以及需要,一些確切的數(shù)據(jù)則需要找微信大規(guī)模語言模型WeLM的站長進行洽談提供。如該站的IP、PV、跳出率等!

        關(guān)于微信大規(guī)模語言模型WeLM特別聲明

        本站OpenI提供的微信大規(guī)模語言模型WeLM都來源于網(wǎng)絡(luò),不保證外部鏈接的準確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2023年 5月 8日 上午10:06收錄時,該網(wǎng)頁上的內(nèi)容,都屬于合規(guī)合法,后期網(wǎng)頁的內(nèi)容如出現(xiàn)違規(guī),可以直接聯(lián)系網(wǎng)站管理員進行刪除,OpenI不承擔任何責任。

        相關(guān)導航

        Trae官網(wǎng)

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 午夜爱爱免费视频| 日本免费一区二区三区四区五六区| 亚洲六月丁香婷婷综合| 亚洲91精品麻豆国产系列在线| 亚洲图片中文字幕| 亚洲国产成人久久精品app| 亚洲中文无码av永久| 91丁香亚洲综合社区| 亚洲国产美女精品久久久| 国产成人高清亚洲一区久久| 添bbb免费观看高清视频| 深夜特黄a级毛片免费播放| 免费无码婬片aaa直播表情| 国产高清对白在线观看免费91| 国产在线观看xxxx免费| 亚洲视频在线观看免费| 精品国产免费人成电影在线观看| 三年片在线观看免费观看高清电影 | 亚洲an天堂an在线观看| 噜噜噜亚洲色成人网站∨| 亚洲AV一二三区成人影片| 香蕉视频亚洲一级| 免费无毒a网站在线观看| 国产一区二区三区免费观在线| 99爱视频99爱在线观看免费| 日本精品人妻无码免费大全 | 久久久精品免费国产四虎| 95免费观看体验区视频| 妞干网免费视频在线观看| 亚洲国产成人久久综合碰| 亚洲VA中文字幕无码一二三区| 亚洲最大黄色网址| 亚洲日韩在线中文字幕综合| 最近的2019免费中文字幕| 四虎精品视频在线永久免费观看| 日本特黄特色aa大片免费| 亚洲精品无码mv在线观看网站| 日韩亚洲AV无码一区二区不卡| 亚洲一区二区三区丝袜| 国产免费人成视频尤勿视频| 麻花传媒剧在线mv免费观看|