AIGC動態歡迎閱讀
原標題:Nature重磅:大模型的謊言如何“破”?牛津團隊提出新方法,無需人工監督或特定領域知識
關鍵字:語義,方法,政策,幻覺,模型
文章來源:大數據文摘
內容字數:0字
內容摘要:
大數據文摘授權轉載自學術頭條
世界衛生組織(WHO)的人工智能健康資源助手 SARAH 列出了舊金山本不存在的診所的虛假名稱和地址。
Meta公司“短命”的科學機器人 Galactica 憑空捏造學術論文,還生成關于太空熊歷史的維基文章。
今年2月,加拿大航空被命令遵守其客戶服務機器人捏造的退款政策。
去年,一名律師因提交充滿虛假司法意見和法律引用的法庭文件而被罰款,這些文件都是由 ChatGPT 編造的。
……
如今,大語言模型(LLM)胡編亂造的例子已屢見不鮮,但問題在于,它們非常擅長一本正經地胡說八道,編造的內容大部分看起來都像是真的,讓人難辨真假。
在某些情況下,可以當個樂子一笑而過,但是一旦涉及到法律、醫學等專業領域,就可能會產生非常嚴重的后果。
如何有效、快速地檢測大模型的幻覺(hallucination),已成為當前國內外科技公司和科研機構競相關注的熱門研究方向。
如今,牛津大學團隊提出的一種新方法便能夠幫助我們快速檢測大模型的幻覺——他們嘗試量化一個LLM產生幻覺的程度,從而判斷生成的內容有多忠于提供的源內容,從而提高其問答的準確性。
研究團隊表示,他們的方法能
原文鏈接:Nature重磅:大模型的謊言如何“破”?牛津團隊提出新方法,無需人工監督或特定領域知識
聯系作者
文章來源:大數據文摘
作者微信:BigDataDigest
作者簡介:普及數據思維,傳播數據文化
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...