AIGC動態歡迎閱讀
原標題:kimi chat大模型的200萬長度無損上下文可能是如何做到的?
關鍵字:報告,知乎,侵權,序列,機器
文章來源:算法邦
內容字數:0字
內容摘要:
7月11日19點,「智猩猩自動駕駛新青年講座」第36講將開講,主講理想汽車最新成果:基于MLLM的閉環規劃智能體PlanAgent,由理想汽車實習研究員、中國科學院自動化研究所在讀博士鄭宇鵬主講,主題為《面向自動駕駛的3D密集描述與閉環規劃智能體》。掃碼預約視頻號直播~導讀本文來自知乎,作者為方佳瑞。出于學術/技術分享進行轉載,如有侵權,聯系刪文。
本文是作者對知乎問題“kimi chat大模型的200萬長度無損上下文可能是如何做到的?”的回答,以及閱讀Mooncake技術報告的學習筆記。
原文鏈接:https://www.zhihu.com/question/649192998/answer/3546745976這周,清華和Moonshot發了一個技術報告,介紹Kimi背后的LLM服務系統Mooncake,它采用分離式設計,將Prefill和Decode兩階段解耦,構建了一個全局KVCache Pool,實現以Cache為中心的調度。
Moonshot作為MaaS頭部廠商,以其過硬的技術產品實力和明星的團隊陣容聞名于世。和其他大模型公司不一樣,他們很少發技術報告或對外做技術分享。這次
原文鏈接:kimi chat大模型的200萬長度無損上下文可能是如何做到的?
聯系作者
文章來源:算法邦
作者微信:allplusai
作者簡介:智猩猩矩陣賬號之一,聚焦生成式AI,重點關注模型與應用。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...