OpenAI 創(chuàng)始成員用 1000 行 C 代碼手搓了一個(gè)大模型,Mac 即可運(yùn)行!網(wǎng)友:真男人就該用C編程
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:OpenAI 創(chuàng)始成員用 1000 行 C 代碼手搓了一個(gè)大模型,Mac 即可運(yùn)行!網(wǎng)友:真男人就該用C編程
關(guān)鍵字:模型,報(bào)告,代碼,語(yǔ)言,特斯拉
文章來(lái)源:AI前線
內(nèi)容字?jǐn)?shù):10018字
內(nèi)容摘要:
編譯 | 核子可樂(lè)、Tina徒手用 1000 行 C 語(yǔ)言實(shí)現(xiàn),不依賴(lài)龐大的外部庫(kù),Mac 即可運(yùn)行。
如今這年頭,徒手寫(xiě)神經(jīng)網(wǎng)絡(luò)代碼已經(jīng)不算事兒了,現(xiàn)在流行手搓大模型訓(xùn)練代碼了!這不,今天,特斯拉前 AI 總監(jiān)、OpenAI 創(chuàng)始團(tuán)隊(duì)成員 Andrej Karpathy 僅用 1000 行簡(jiǎn)潔的 C 代碼,就完成了 GPT-2 大模型訓(xùn)練過(guò)程。
幾個(gè)小時(shí)前,Andrej Karpathy 推出了一個(gè)名為 llm.c 的項(xiàng)目,旨在用純 C 語(yǔ)言訓(xùn)練 LLM,這種方法的主要優(yōu)勢(shì)在于它顯著減少了依賴(lài)庫(kù)的體積——不再需要 245MB 的 PyTorch 和 107MB 的 cPython,這樣可以使得模型訓(xùn)練過(guò)程更為輕量化和高效。該項(xiàng)目還可以立即編譯和運(yùn)行,并且可以與 PyTorch 的參考實(shí)現(xiàn)媲美。
Karpathy 表示他之所以選擇 GPT-2 作為首個(gè)工作示例,是因?yàn)樗笳Z(yǔ)言模型鼻祖的定位,亦屬現(xiàn)代 AI 堆棧的首次組合。因此,選擇 GPT-2 作為起點(diǎn),可以讓我們更容易地理解和實(shí)踐大型語(yǔ)言模型訓(xùn)練。
徒手實(shí)現(xiàn) GPT-2 后,Karpathy 將這份代碼放到了 GitHub 上,以
原文鏈接:OpenAI 創(chuàng)始成員用 1000 行 C 代碼手搓了一個(gè)大模型,Mac 即可運(yùn)行!網(wǎng)友:真男人就該用C編程
聯(lián)系作者
文章來(lái)源:AI前線
作者微信:ai-front
作者簡(jiǎn)介:面向AI愛(ài)好者、開(kāi)發(fā)者和科學(xué)家,提供大模型最新資訊、AI技術(shù)分享干貨、一線業(yè)界實(shí)踐案例,助你全面擁抱AIGC。