AIGC動態歡迎閱讀
原標題:谷歌蘋果曝出LLM驚人,自主識別錯誤卻裝糊涂!AI幻覺背后藏著更大秘密
關鍵字:錯誤,模型,答案,研究人員,真實性
文章來源:新智元
內容字數:0字
內容摘要:
新智元報道編輯:桃子
【新智元導讀】大模型幻覺,究竟是怎么來的?谷歌、蘋果等機構研究人員發現,大模型知道的遠比表現的要多。它們能夠在內部編碼正確答案,卻依舊輸出了錯誤內容。到現在為止,我們仍舊對大模型「幻覺」如何、為何產生,知之甚少。
最近,來自Technion、谷歌和蘋果的研究人員發現,LLM「真實性」的信息集中在特定的token,而且并得均勻分布。
正如論文標題所示,「LLM知道的往往要比表現出來的更多」。
論文地址:https://arxiv.org/pdf/2410.02707
不僅如此,他們還發現,內部表征可以用來預測LLM可能會犯錯的錯誤類型。
它的優勢在于,未來有助于開發出針對性的解決方案。
最后,研究團隊還解釋了,大模型內部編碼和外部行為之間存在的差異:
它們可能在內部編碼了正確答案,卻持續生成錯誤答案。
幻覺,如何定義?事實錯誤、偏見,以及推理失誤,這些統稱為「幻覺」。
以往,大多數關于幻覺的研究,都集中在分析大模型的外部行為,并檢查用戶如何感知這些錯誤。
然而,這些方法對模型本身如何編碼、處理錯誤提供了有限的見解。
近期另有一些研究表明,LLM內部狀態其實「知道」
原文鏈接:谷歌蘋果曝出LLM驚人,自主識別錯誤卻裝糊涂!AI幻覺背后藏著更大秘密
聯系作者
文章來源:新智元
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...