AIGC動態歡迎閱讀
原標題:長短時記憶RAG來啦,仿照人腦結構,成本降低20倍,表現提高20%!
關鍵字:模型,記憶,知識,人腦,節點
文章來源:夕小瑤科技說
內容字數:0字
內容摘要:
夕小瑤科技說 原創作者 | Richard自從GPT-4問世之后,大模型似乎變得愈發聰明,擁有了”百科全書”般的知識儲備。但它們真的已經接近人類智慧了嗎?
事實并非如此,大模型在知識整合和長期記憶方面仍存在明顯短板,而這恰恰是人腦的強項。人類的大腦能持續不斷地整合新知識,形成強大的長期記憶,為我們的思考和決策提供支持。那么大模型如何才能像人腦一樣擁有高效的知識整合和長期記憶呢?
來自俄亥俄州立大學和斯坦福大學的一組科學家們給出了一個有趣的思路:讓人工智能擁有一個類似人類海馬體的”記憶大腦”。他們從神經科學的角度出發,模仿人腦海馬體在長期記憶中的作用,設計出一個名為HippoRAG的模型,能夠像人腦一樣高效地整合和搜索知識。實驗表明,這個”記憶大腦”能夠在多跳問答等需要知識整合的任務上取得大幅提升。這或許指明了讓大模型具備”類人”記憶能力的一個全新方向。
論文標題:HippoRAG: Neurobiologically Inspired Long-Term Memory for Large Language Models
論文鏈接:https://arxiv.org/pdf/2405.1
原文鏈接:長短時記憶RAG來啦,仿照人腦結構,成本降低20倍,表現提高20%!
聯系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:專業、有趣、深度價值導向的科技媒體。聚集30萬AI工程師、研究員,覆蓋500多家海內外機構投資人,互聯網大廠中高管和AI公司創始人。一線作者來自清北、國內外頂級AI實驗室和大廠,兼備敏銳的行業嗅覺和洞察深度。商務合作:zym5189