AIGC動態歡迎閱讀
內容摘要:
大數據文摘受權轉載數據派THU
作者:胡赟豪
???在這個信息的時代,你是否曾幻想過與機器流暢交談,或是讓AI助你筆下生花,創作出驚艷的文章?這一切,都離不開大語言模型的神奇魔力。今天,讓我們一起揭開這層神秘的面紗,走進大語言模型的科普奇幻之旅!一 背景自大語言模型興起以來,人們通過不斷地增加參數量,使模型的效果得到一次又一次的躍升。但是,單純的增加參數量只能讓模型在閱讀理解、事實確認等方面提升顯著,在邏輯推理、數學推理等復雜推理問題方面收益卻不大。
針對這一問題,一個直觀的改良方法就是微調(Finetune),通過引入大量“問題+答案”形式的樣本,對模型進行訓練迭代參數,從而讓模型專門提升這方面的能力。然而,這種方式在復雜推理等問題上帶來的效果依然有限,且需要大量的訓練樣本。看起來模型在大量學習樣本之后,似乎也并沒有獲得推理的能力。究竟要怎樣才能讓模型真正學會推理呢?
二 思維鏈是什么?既然模型不能直接從“問題+答案”中學習到推理邏輯,那么如果我們給出“問題+推理步驟+答案”,告訴模型最后的結果是怎么一步步推導出來的,是不是模型就可以學會了呢?
從這個想法出發,2022年谷歌發布
原文鏈接:科普之旅 :大語言模型的思維鏈
聯系作者
文章來源:大數據文摘
作者微信:BigDataDigest
作者簡介:普及數據思維,傳播數據文化
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...