再談LLM邏輯推理的三大謬誤

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:再談LLM邏輯推理的三大謬誤
關(guān)鍵字:模型,語(yǔ)言,隨機(jī)性,人工智能,能力
文章來(lái)源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
在此前的文章《LLM邏輯推理的枷鎖與破局策略》,作者Alejandro Piad Morffis論述了為什么大語(yǔ)言模型不具備推理(reasoning)能力,并在X上引發(fā)強(qiáng)烈爭(zhēng)論(https://x.com/alepiad/status/1837154075093225594)。針對(duì)這一主題,他再次寫(xiě)了一篇文章來(lái)駁斥關(guān)于LLM推理的三大誤解。
他認(rèn)為,LLM在許多情況下所做的事情只是類似于推理,但并不完全是正確、可靠的推理算法,這比根本沒(méi)有推理算法更糟糕,因?yàn)樗鼤?huì)讓你錯(cuò)誤地認(rèn)為它有效,并且你可能無(wú)法判斷它何時(shí)無(wú)效,而再多的漸進(jìn)式創(chuàng)新(技巧)也無(wú)法解決這個(gè)問(wèn)題。如果沒(méi)有范式轉(zhuǎn)變,將真正的推理納入語(yǔ)言模型,這些錯(cuò)誤不可避免。
(Alejandro是古巴哈瓦那大學(xué)計(jì)算機(jī)科學(xué)教授,也是專注于數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)應(yīng)用的公司SYALIA, S.R.L的CTO。本文由OneFlow編譯發(fā)布,轉(zhuǎn)載請(qǐng)聯(lián)系授權(quán)。原文:https://blog.apiad.net/p/no-llms-still-cannot-reason-part/comments)作者 |Alejandro Piad Morffis
One
原文鏈接:再談LLM邏輯推理的三大謬誤
聯(lián)系作者
文章來(lái)源:人工智能學(xué)家
作者微信:
作者簡(jiǎn)介:

粵公網(wǎng)安備 44011502001135號(hào)