深挖大模型幻覺!哈佛大學最新報告:LLM等價于眾包,只是在輸出「網(wǎng)絡」
AIGC動態(tài)歡迎閱讀
原標題:深挖大模型幻覺!哈佛大學最新報告:LLM等價于眾包,只是在輸出「網(wǎng)絡」
關(guān)鍵字:模型,報告,主題,問題,
文章來源:新智元
內(nèi)容字數(shù):0字
內(nèi)容摘要:
新智元報道編輯:LRS
【新智元導讀】哈佛大學研究了大型語言模型在回答晦澀難懂和有爭議問題時產(chǎn)生「幻覺」的原因,發(fā)現(xiàn)模型輸出的準確性高度依賴于訓練數(shù)據(jù)的質(zhì)量和數(shù)量。研究結(jié)果指出,大模型在處理有廣泛的問題時表現(xiàn)較好,但在面對爭議性或信息不足的主題時則容易產(chǎn)生誤導性的回答。自ChatGPT發(fā)布以來,用戶的搜索方式、人機交互都發(fā)生了極大改變,諸如問題回答、文本總結(jié)和交流對話等各種簡單應用場景下的體驗都有了很大提升,有時甚至超過了人類的表現(xiàn)。
大模型之所以能生成全面且連貫的文本,其能力主要來源于Transformer模型架構(gòu)和海量預訓練、微調(diào)數(shù)據(jù)集。
不過,大模型還存在一個頑疾「幻覺」,會生成一些看似真實但非事實、無意義或與給定提示不一致的回應,可能會導致錯誤信息的傳播,在關(guān)鍵決策應用中造成有害后果,甚至導致用戶對AI系統(tǒng)的不信任。之前就發(fā)生過相關(guān)案例,《紐約時報》發(fā)表了一篇關(guān)于某位律師使用ChatGPT案例引用的文章,用戶卻沒有意識到故事是虛構(gòu)的;這一也凸顯了幻覺的危害性:普通用戶很難察覺、識別出幻覺。
最近,哈佛大學的研究人員發(fā)布了一篇報告,在幾周內(nèi)向各種人工智能模型提出了一系列
原文鏈接:深挖大模型幻覺!哈佛大學最新報告:LLM等價于眾包,只是在輸出「網(wǎng)絡」
聯(lián)系作者
文章來源:新智元
作者微信:
作者簡介: