AIGC動態歡迎閱讀
原標題:清華廈大等提出“無限長上下文”技術,100萬大海撈針全綠,Llama\\Qwen\\MiniCPM都能上分
關鍵字:片段,模型,文本,信息,框架
文章來源:量子位
內容字數:0字
內容摘要:
LLMxMapReduce團隊 投稿量子位 | 公眾號 QbitAI大模型的記憶限制被打破了,變相實現“無限長”上下文。
最新成果,來自清華、廈大等聯合提出的LLMxMapReduce長本文分幀處理技術。
LLMxMapReduce技術通過將長上下文切分為多個片段,可以讓模型并行處理多個片段,并從不同片段中提取關鍵信息,然后匯總成為最終的答案。
特別地,團隊提出結構化通信協議和上下文置信度校準機制,實現對跨片段信息更有效的處理。這項技術可以打破大模型的記憶限制,實現上下文長度無限穩定拓展。
LLMxMapReduce技術可作為大模型的長文本上分神器——它對大模型長文本能力具有普遍增強作用,且在文本不斷加長的情況下,仍能保持穩定性能、減少長文本的掉分情況。
比如結合了LLMxMapReduce框架之后的Llama3-70B-Instruct x MapReduce模型得分超越了包含Kimi、GPT-4在內的知名閉源和開源模型以及其他基于Llama3-70B-Instruct的分治方法(即LongAgent和Chain-of-Agents)。
此外,LLMxMapReduce框架展現出較強
原文鏈接:清華廈大等提出“無限長上下文”技術,100萬大海撈針全綠,Llama\\Qwen\\MiniCPM都能上分
聯系作者
文章來源:量子位
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...