吃“有毒”數(shù)據(jù),大模型反而更聽話了!來自港科大&華為諾亞方舟實驗室
AIGC動態(tài)歡迎閱讀
原標題:吃“有毒”數(shù)據(jù),大模型反而更聽話了!來自港科大&華為諾亞方舟實驗室
文章來源:量子位
內(nèi)容字數(shù):5646字
內(nèi)容摘要:港科大 華為諾亞方舟實驗室量子位 | 公眾號 QbitAI現(xiàn)在,大模型也學會“吃一塹,長一智”了。來自香港科技大學和華為諾亞方舟實驗室的最新研究發(fā)現(xiàn):相比于一味規(guī)避“有毒”數(shù)據(jù),以毒攻毒,干脆給大模型喂點錯誤文本,再讓模型剖析、反思出錯的原因,反而能夠讓模型真正理解“錯在哪兒了”,進而避免胡說八道。具體而言,研究人員提出了“從錯誤中學習”的對齊框架,并通過實驗證明:讓大模型“吃一塹,長一智”,在糾…
原文鏈接:點此閱讀原文:吃“有毒”數(shù)據(jù),大模型反而更聽話了!來自港科大&華為諾亞方舟實驗室
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業(yè)新突破
? 版權聲明
文章版權歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關文章
暫無評論...