今日arXiv最熱NLP大模型論文:微軟發(fā)布:大模型時(shí)代的可解釋機(jī)器學(xué)習(xí),現(xiàn)狀與挑戰(zhàn)
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:今日arXiv最熱NLP大模型論文:微軟發(fā)布:大模型時(shí)代的可解釋機(jī)器學(xué)習(xí),現(xiàn)狀與挑戰(zhàn)
關(guān)鍵字:數(shù)據(jù),模型,解釋性,自然語言,方法
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):12232字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 | 謝年年、Python自深度學(xué)習(xí)開啟了人工智能的黑盒模式,模型的可解釋性一直都是專家學(xué)者討論研究的重點(diǎn)。
為什么可解釋性問題這么重要?
舉一個(gè)簡單的例子:讓模型給出一個(gè)未來房價(jià)的預(yù)測(cè),如果使用深度學(xué)習(xí),則會(huì)使用一連串的非線性函數(shù)的疊加公式得到一個(gè)預(yù)測(cè)結(jié)果。但這對(duì)人類來說是難以理解的,數(shù)學(xué)公式或者是一堆向量特征難以定義結(jié)果的可信賴性。
特別是大語言模型雖然在各種復(fù)雜的NLP任務(wù)中展現(xiàn)出驚艷的效果,但我們對(duì)“為什么大模型有如此強(qiáng)大的能力”這一問題仍處于初步探索階段。數(shù)據(jù)量與模型參數(shù)量暴增的LLMs似乎讓我們離可解釋性越來越遠(yuǎn)。
當(dāng)然,LLMs帶來的不僅僅是挑戰(zhàn),或許也是一場關(guān)于可解釋性學(xué)習(xí)技術(shù)的變革,或者說新思路。
今天介紹的這篇文章來自微軟,認(rèn)為LLM提供了重新思考可解釋性的機(jī)會(huì)。LLM可直接自然語言與人類進(jìn)行交流,這提供了比深度學(xué)更加詳盡的解釋。
比如,用戶可以直接對(duì)LLM發(fā)問:“你能解釋一下你的邏輯嗎?”,“為什么你的回答不是(A)?”,或者“給我解釋一下這個(gè)數(shù)據(jù)”, 并獲得即時(shí)、相關(guān)的回答。
因此結(jié)合數(shù)據(jù)相關(guān)的落地和處理技術(shù),LLM能夠以易理解的文本
原文鏈接:今日arXiv最熱NLP大模型論文:微軟發(fā)布:大模型時(shí)代的可解釋機(jī)器學(xué)習(xí),現(xiàn)狀與挑戰(zhàn)
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI一線開發(fā)者、互聯(lián)網(wǎng)中高管和機(jī)構(gòu)投資人。一線作者來自清北、國內(nèi)外頂級(jí)AI實(shí)驗(yàn)室和大廠,兼?zhèn)湫袠I(yè)嗅覺與報(bào)道深度。