AIGC動態歡迎閱讀
原標題:華為諾亞發布無限上下文大模型,超越SoTA 4.3%
關鍵字:華為,報告,模型,,文本
文章來源:夕小瑤科技說
內容字數:0字
內容摘要:
夕小瑤科技說 原創作者 | Richard你的大語言模型是不是也患上了”長文健忘癥”?當使用大模型遇到長上下文時總是會出現詞不達意?別擔心,LLM界的”記憶大師”來啦!華為諾亞方舟實驗室最新推出的EM-LLM模型,就像是給大模型裝上了”超級記憶芯片”,讓它們輕松應對天文數字般的超長文本。這個創新模型巧妙地將人類認知科學中的分割和情景記憶原理融入到了LLM中,讓大模型也能像人腦一樣高效處理超長文本。
EM-LLM的核心秘訣在于它模仿了人類大腦處理信息的方式。它能夠自動將長文本切分成有意義的””,并建立類似人類情景記憶的存儲結構。這種設計不僅讓模型能夠更好地理解和記憶長文本的內容,還能在需要時快速檢索相關信息。
在LongBench長文本基準測試中,EM-LLM的整體性能超越了此前的最佳模型,平均提升4.3%。特別是在段落檢索任務上,EM-LLM表現依舊非常出色,性能提升高達33%,充分展示了其在長文本理解和信息檢索方面的卓越能力。
論文標題:HUMAN-LIKE EPISODIC MEMORY FOR INFINITE CONTEXT LLMS
論文鏈接:https://arxi
原文鏈接:華為諾亞發布無限上下文大模型,超越SoTA 4.3%
聯系作者
文章來源:夕小瑤科技說
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...