AIGC動態歡迎閱讀
原標題:LeCun引戰,LLM根本不會推理!大模型「涌現」,終究離不開上下文學習
文章來源:新智元
內容字數:10929字
內容摘要:新智元報道編輯:潤拉燕【新智元導讀】前段時間,LeCun轉發了2篇長文,集中討論了LLM的規劃推理能力和涌現能力的來源。作者認為,LLM本身不具有規劃推理能力,而涌現出來的能力,根源應該都是上下文學習的結果。大語言模型到底會不會推理?涌現出來的各種能力到底來源是什么?前段時間,LeCun在自己上轉發了好幾篇文章,集中討論了這個問題:「自回歸LLM無法制定計劃(并且無法真正推理)」。而LeCun轉發第二篇論文,則討論了LLM涌現能力。原推表示,不管大伙相不相信LLM的涌現能力,這篇文章都值得一讀:「經過了超過1000次的系列實驗,我們證明了大語言模型所謂的涌現能力,其實僅僅是上下文學習而已。」LLM真的能推理和規劃嗎?Subbarao Kambhampat的文章認為,網上對于LLM能夠推理和規劃的說法,本身不太站得住腳,但是學界對于這個問題,也開始進行了很嚴肅地研究。至少以他之前針對GP…
原文鏈接:點此閱讀原文:LeCun引戰,LLM根本不會推理!大模型「涌現」,終究離不開上下文學習
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...