<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        直接擴展到無限長,谷歌Infini-Transformer終結上下文長度之爭

        AIGC動態1年前 (2024)發布 機器之心
        744 0 0

        直接擴展到無限長,谷歌Infini-Transformer終結上下文長度之爭

        AIGC動態歡迎閱讀

        原標題:直接擴展到無限長,谷歌Infini-Transformer終結上下文長度之爭
        關鍵字:注意力,上下文,報告,內存,模型
        文章來源:機器之心
        內容字數:5751字

        內容摘要:


        機器之心報道
        編輯:小舟、陳萍不知 Gemini 1.5 Pro 是否用到了這項技術。
        谷歌又放大招了,發布下一代 Transformer 模型 Infini-Transformer。
        Infini-Transformer 引入了一種有效的方法,可以將基于 Transformer 的大型語言模型 (LLM) 擴展到無限長輸入,而不增加內存和計算需求。使用該技術,研究者成功將一個 1B 的模型上下文長度提高到 100 萬;應用到 8B 模型上,模型能處理 500K 的書籍摘要任務。
        自 2017 年開創性研究論文《Attention is All You Need》問世以來,Transformer 架構就一直主導著生成式人工智能領域。而谷歌對 Transformer 的優化設計最近比較頻繁,幾天前,他們更新了 Transformer 架構,發布 Mixture-of-Depths(MoD),改變了以往 Transformer 計算模式。沒過幾天,谷歌又放出了這項新研究。專注 AI 領域的研究者都了解內存的重要性,它是智能的基石,可以為 LLM 提供高效的計算。然而,Transformer


        原文鏈接:直接擴展到無限長,谷歌Infini-Transformer終結上下文長度之爭

        聯系作者

        文章來源:機器之心
        作者微信:almosthuman2014
        作者簡介:專業的人工智能媒體和產業服務平臺

        閱讀原文
        ? 版權聲明
        蟬鏡AI數字人

        相關文章

        蟬鏡AI數字人

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 免费a在线观看播放| 亚洲最大在线视频| 亚洲va无码手机在线电影| 亚洲成综合人影院在院播放| 久久午夜夜伦鲁鲁片无码免费| 国产高清免费在线| 久久久久亚洲精品日久生情| 污污视频网站免费观看| 色播精品免费小视频| 亚洲精品午夜国产VA久久成人| 亚洲中文字幕无码爆乳| 三年片在线观看免费大全电影| 亚洲成?Ⅴ人在线观看无码| 亚洲香蕉久久一区二区三区四区| 中国人免费观看高清在线观看二区| 女人18一级毛片免费观看| 久久精品国产亚洲AV果冻传媒| 男人进去女人爽免费视频国产| 亚洲一区二区三区首页| 999zyz**站免费毛片| 亚洲国产精品毛片av不卡在线| 成年网在线观看免费观看网址| 免费看大黄高清网站视频在线| 91精品国产亚洲爽啪在线影院| 中文字幕无码播放免费| 亚洲精品无AMM毛片| 日韩精品无码区免费专区| 亚洲人成在线观看| 免费视频成人手机在线观看网址| 久久精品国产精品亚洲下载| 午夜亚洲乱码伦小说区69堂| 精品国产精品久久一区免费式| 黄网站色成年片大免费高清| 日韩视频免费一区二区三区| 亚洲日本一线产区和二线| 成人免费777777| 亚洲黄片手机免费观看| 亚洲一区二区女搞男| 国产一区二区三区免费观看在线| 久久影视国产亚洲| 四虎免费影院ww4164h|