Deepmind最新研究:一個技巧,思維鏈不再需要提示詞激發(fā)了!

AIGC動態(tài)歡迎閱讀
原標題:Deepmind最新研究:一個技巧,思維鏈不再需要提示詞激發(fā)了!
關鍵字:模型,路徑,提示,任務,能力
文章來源:夕小瑤科技說
內(nèi)容字數(shù):9526字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 | 松果、Python引言:探索無需特定提示的LLM推理能力在人工智能領域,大語言模型(LLMs)已經(jīng)在各種復雜的推理基準測試中展現(xiàn)出了令人矚目的性能。傳統(tǒng)上,這些推理能力是通過精心設計的提示技術(shù)來激發(fā)的,例如少量示例提示(few-shot prompting)或零示例提示(zero-shot prompting)。然而,這些方法往往涉及到手動密集的提示工程,限制了它們在不同任務中的通用性。
本項工作探索了一個不同的視角,提出了一個關鍵的問題:LLMs能否在沒有特定提示的情況下有效地進行推理?研究發(fā)現(xiàn)一令人驚訝的結(jié)果,通過簡單地改變解碼過程,可以從預訓練的LLMs中自然地激發(fā)出鏈式推理(CoT)路徑。這種解碼修改繞過了CoT提示,并且是完全無監(jiān)督的,不需要模型調(diào)整。
研究還揭示了預訓練語言模型固有的推理能力,這一發(fā)現(xiàn)與之前側(cè)重于改進提示以促進推理的研究形成了鮮明對比。研究發(fā)現(xiàn),當模型在其解碼路徑中存在CoT時,對其最終答案的信心增加。利用這種增加的信心,研究者提出了CoT解碼方法,以選擇更可靠的解碼路徑,從而在各種推理基準測試中顯著提高了模型性能。
實驗結(jié)果表明
原文鏈接:Deepmind最新研究:一個技巧,思維鏈不再需要提示詞激發(fā)了!
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI一線開發(fā)者、互聯(lián)網(wǎng)中高管和機構(gòu)投資人。一線作者來自清北、國內(nèi)外頂級AI實驗室和大廠,兼?zhèn)湫袠I(yè)嗅覺與報道深度。

粵公網(wǎng)安備 44011502001135號