《Python 機(jī)器學(xué)習(xí)》作者新作:從頭開始構(gòu)建大型語言模型,代碼已開源
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:《Python 機(jī)器學(xué)習(xí)》作者新作:從頭開始構(gòu)建大型語言模型,代碼已開源
關(guān)鍵字:機(jī)器,指令,模型,新書,人工智能
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
機(jī)器之心報(bào)道
機(jī)器之心編輯部自 ChatGPT 發(fā)布以來,大型語言模型(LLM)已經(jīng)成為推動(dòng)人工智能發(fā)展的關(guān)鍵技術(shù)。
近期,機(jī)器學(xué)習(xí)和 AI 研究員、暢銷書《Python 機(jī)器學(xué)習(xí)》作者 Sebastian Raschka 又寫了一本新書 ——《Build a Large Language Model (From Scratch)》,旨在講解從頭開始構(gòu)建大型語言模型的整個(gè)過程,包括如何創(chuàng)建、訓(xùn)練和調(diào)整大型語言模型。最近,Sebastian Raschka 在 GitHub 上開源了這本新書對應(yīng)的代碼庫。項(xiàng)目地址:https://github.com/rasbt/LLMs-from-scratch/tree/main?tab=readme-ov-file
對 LLM 來說,指令微調(diào)能夠有效提升模型性能,因此各種指令微調(diào)方法陸續(xù)被提出。Sebastian Raschka 發(fā)推重點(diǎn)介紹了項(xiàng)目中關(guān)于指令微調(diào)的部分,其中講解了:
如何將數(shù)據(jù)格式化為 1100 指令 – 響應(yīng)對;
如何應(yīng)用 prompt-style 模板;
如何使用掩碼。《Build a Large Language Model
原文鏈接:《Python 機(jī)器學(xué)習(xí)》作者新作:從頭開始構(gòu)建大型語言模型,代碼已開源
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺