AIGC動態歡迎閱讀
原標題:Meta祭出三篇最詳盡Llama微調指南!千字長文,0基礎小白必備
關鍵字:數據,模型,成本,示例,任務
文章來源:新智元
內容字數:0字
內容摘要:
新智元報道編輯:桃子
【新智元導讀】微調的所有門道,都在這里了。開源,就要開的徹徹底底。
這不,Meta一連放出三篇技術文章,從大模型適配方法出發,介紹了:
如何使用特定領域數據微調LLM,如何確定微調適配自己的用例,以及如何管理良好訓練數據集的經驗法則。
接下來,直接進入正題。
適配大模型預訓練
預訓練是指,使用數萬億個token數據,從頭開始訓練LLM的過程,通常使用自監督算法進行訓練。
最常見的情況是,訓練通過自回歸預測下一個token(也稱為因果語言建模)。
預訓練通常需要數千個GPU小時(105-107個),并分布在多個GPU上進行。
預訓練的輸出模型稱為「基礎模型」。
繼續預訓練
繼續預訓練(也稱為第二階段預訓練)將使用全新的、未見過的領域數據進一步訓練基礎模型。
這里,同樣使用與初始預訓練相同的自監督算法。
通常會涉及所有模型權重,并將一部分原始數據與新數據混合。
微調
微調是以監督方式使用帶注釋的數據,或使用基于強化學習的技術,來適配預訓練語言模型的過程。
與預訓練相比,微調有兩個主要區別:
– 在包含正確標簽/答案/偏好的注釋數據集上進行監督訓練,而不是自監督訓練
原文鏈接:Meta祭出三篇最詳盡Llama微調指南!千字長文,0基礎小白必備
聯系作者
文章來源:新智元
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...