谷歌Gemini1.5重磅上線:最強MoE架構,100萬上下文
AIGC動態歡迎閱讀
原標題:谷歌Gemini1.5重磅上線:最強MoE架構,100萬上下文
關鍵字:報告,模型,上下文,窗口,代碼
文章來源:Founder Park
內容字數:5517字
內容摘要:
文章轉載自「機器之心」今天,谷歌宣布推出 Gemini 1.5。Gemini 1.5 建立在谷歌基礎模型開發和基礎設施的研究與工程創新的基礎上,包括通過新的專家混合 (MoE) 架構使 Gemini 1.5 的訓練和服務更加高效。
谷歌現在推出的是用于早期測試的 Gemini 1.5 的第一個版本 ——Gemini 1.5 Pro。它是一種中型多模態模型,針對多種任務的擴展進行了優化,其性能水平與谷歌迄今為止最大的模型 1.0 Ultra 類似,并引入了長上下文理解方面的突破性實驗特征。
Gemini 1.5 Pro 配備了 128000 個 token 上下文窗口。但從今天開始,少數開發人員和企業客戶可以通過 AI Studio 和 Vertex AI 的私人預覽版在最多 100 萬個 token 的上下文窗口中進行嘗試。谷歌還進行了一些優化,以改善延遲、減少計算要求并增強用戶體驗。
谷歌 CEO Sundar Pichai 和谷歌 DeepMind CEO Demis Hassabis 對新模型進行了專門介紹。01高效架構Gemini 1.5 建立在谷歌對 Transformer
原文鏈接:谷歌Gemini1.5重磅上線:最強MoE架構,100萬上下文
聯系作者
文章來源:Founder Park
作者微信:Founder-Park
作者簡介:來自極客公園,專注與科技創業者聊「真問題」。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...