標(biāo)簽:知識

大模型總弄錯「事實」怎么辦?這有一份匯聚了300多篇文獻(xiàn)的綜述

機器之心發(fā)布機器之心編輯部這篇文章對大模型的事實性進行了詳細(xì)的梳理和總結(jié)。大模型在掌握事實性知識上展現(xiàn)出巨大的能力和潛力,但是其仍然存在一些問題,...
閱讀原文

站上大模型制高點:我們給不輸GPT-4的文心大模型4.0,來了一場技術(shù)揭秘

機器之心報道作者:澤南我們即將進入一個 AI 原生的時代,一個人機交互的新時代。「這是迄今為止最強的文心大模型。它實現(xiàn)了基礎(chǔ)模型的全面升級,在理解、生...
閱讀原文

人類數(shù)據(jù)被用完后,我們會走向一個 AI 壟斷知識的未來嗎?

人工智能研究和預(yù)測組織 Epoch 發(fā)表的一篇論文里預(yù)測,高質(zhì)量的文本數(shù)據(jù)會在 2023-2027 年之間消耗殆盡。很多大模型的技術(shù)人員認(rèn)為,基于專業(yè)化體系和方法,A...
閱讀原文

和谷歌搜索搶活,F(xiàn)RESHLLM「緊跟時事」,幻覺更少,信息更準(zhǔn)

機器之心報道機器之心編輯部LLM 能更新知識的話,還有谷歌搜索什么事?大型語言模型的能力有目共睹,如 BARD 和 CHATGPT/GPT-4,被設(shè)計成多功能開放域聊天機...
閱讀原文

語言模型有重大缺陷,知識推演竟然是老大難

來源:機器之心驚人發(fā)現(xiàn):大模型在知識推演上存在嚴(yán)重缺陷。靈活運用知識是智慧的關(guān)鍵。人腦可以快速處理知識,如快速回答 “《靜夜思》中有幾個月字”。那么,...
閱讀原文

背誦不等于理解,深度解析大模型背后的知識儲存與提取

機器之心專欄機器之心編輯部自然語言模型的背誦 (memorization) 并不等于理解。即使模型能完整記住所有數(shù)據(jù),也可能無法通過微調(diào) (finetune) 提取這些知識,...
閱讀原文

“新KG”視點 | 漆桂林——知識圖譜和大語言模型的共存之道

OpenKG大模型專輯導(dǎo)讀知識圖譜和大型語言模型都是用來表示和處理知識的手段。大模型補足了理解語言的能力,知識圖譜則豐富了表示知識的方式,兩者的深度結(jié)合...
閱讀原文

螞蟻「大圖模型」研究,為圖智能邁向AGI鋪了一條新通途

機器之心報道作者:杜偉在 AI 新時代,圖與大型語言模型能擦出什么火花?這是一個值得「深挖」的重要課題。2021 年 3 月,知名 IT 咨詢公司 Gartner 在《2021...
閱讀原文

大模型的“幻覺”如何克服?騰訊AILab等《大型語言模型中的幻覺》,全面闡述檢測、解釋和減輕幻覺

來源:專知理解大模型中的“幻覺”,這篇論文及時解讀。雖然大型語言模型(LLMs)在各種下游任務(wù)中展示出了卓越的能力,但一個重要的關(guān)注點是它們表現(xiàn)出幻覺的...
閱讀原文

LeCun再潑冷水:只會看書的語言模型永遠(yuǎn)無法實現(xiàn)「類人智能」

夕小瑤科技說 分享來源 | 新智元問題不在語言模型的學(xué)習(xí)算法,而是語言本身的固有局限性,多模態(tài)將引領(lǐng)下一次AI爆發(fā)!自去年ChatGPT發(fā)布后,業(yè)內(nèi)外都涌現(xiàn)出了...
閱讀原文
1567