AIGC動態歡迎閱讀
原標題:To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻覺
關鍵字:不確定性,方法,認知,模型,概率
文章來源:新智元
內容字數:0字
內容摘要:
新智元報道編輯:庸庸 喬楊
【新智元導讀】DeepMind發表了一篇名為「To Believe or Not to Believe Your LLM」的新論文,探討了LLM的不確定性量化問題,通過「迭代提示」成功將LLM的認知不確定性和偶然不確定性解耦。研究還將新推導出的幻覺檢測算法應用于Gemini,結果表明,與基線方法相比,該方法能有效檢測幻覺。大語言模型產生幻覺、胡說八道的問題被詬病,已經不是一天兩天了。
前有ChatGPT編造法律案件,后有谷歌搜索建議披薩放膠水。
就連號稱模型更安全、幻覺更少的Claude系列,在Reddit上也能看到不少吐槽。
LLM輸出虛假信息的問題,似乎并不能在短時間內徹底解決。
這就給很多場景下的應用帶來了巨大的障礙,尤其是法律、醫療、學術這樣比較嚴謹的知識領域。如果答案有錯,還不如不用。
那么能不能有一種方法,至少為LLM的輸出劃定一個置信區間呢?
6月5日,DeepMind發表了一篇名為「To Believe or Not to Believe Your LLM」,就開始著手解決這個問題。
如果無法LLM堅持輸出真實信息,知道它什么時候在胡說
原文鏈接:To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻覺
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...