<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        我與vLLM的2024:清華大佬的vLLM開發(fā)之路

        AIGC動(dòng)態(tài)8個(gè)月前發(fā)布 智猩猩GenAI
        623 0 0

        也許二十年后再回首,我們會(huì)發(fā)現(xiàn),現(xiàn)在我們就站在下一個(gè)“互聯(lián)網(wǎng)級(jí)奇跡”的起點(diǎn)上。

        我與vLLM的2024:清華大佬的vLLM開發(fā)之路

        原標(biāo)題:我與vLLM的2024:清華大佬的vLLM開發(fā)之路
        文章來源:智猩猩GenAI
        內(nèi)容字?jǐn)?shù):12100字

        vLLM項(xiàng)目參與者2024年經(jīng)歷回顧

        本文回顧了作者2024年參與vLLM開源項(xiàng)目的心路歷程,從初入項(xiàng)目到深度參與,見證了vLLM的成長(zhǎng)和發(fā)展,并分享了在項(xiàng)目中遇到的挑戰(zhàn)和收獲,以及對(duì)AI未來發(fā)展的思考。

        1. 項(xiàng)目緣起與ChatGPT的沖擊

        作者在2019年UC Berkeley的RISELab暑期研修期間結(jié)識(shí)了vLLM的未來創(chuàng)始人,五年后因ChatGPT的出現(xiàn)以及對(duì)AI研究現(xiàn)狀的困惑,決定轉(zhuǎn)向機(jī)器學(xué)習(xí)系統(tǒng)研究,最終參與了vLLM項(xiàng)目。

        2. 初入vLLM:開源項(xiàng)目的管理與挑戰(zhàn)

        作者加入vLLM后,首先將PyTorch的開源管理經(jīng)驗(yàn)移植到vLLM,并通過訂閱GitHub消息,快速了解項(xiàng)目,并解決問題。期間,作者主要負(fù)責(zé)解決PyTorch版本升級(jí)帶來的兼容性問題,以及vLLM的分布式推理。

        3. PyTorch 2.2的挑戰(zhàn)與John Schulman的合作

        將vLLM依賴的PyTorch從2.1升級(jí)到2.2的過程中,作者發(fā)現(xiàn)了內(nèi)存占用異常增加的問題,經(jīng)過三個(gè)月的排查,最終找到并解決了問題。在解決RLHF流程中類似問題時(shí),作者與OpenAI的John Schulman合作,將權(quán)重更新時(shí)間從3分鐘壓縮到4秒。

        4. 從GPU Poor到GPU Rich:社區(qū)的幫助與支持

        由于資源限制,vLLM早期性能測(cè)試受限。在社區(qū)的幫助下,NVIDIA、AWS、Google Cloud等提供了大量計(jì)算資源,解決了燃眉之急。作者強(qiáng)調(diào)了社區(qū)支持對(duì)vLLM發(fā)展的重要性。

        5. LLaMA 3.1 405B的挑戰(zhàn)與成功

        作者參與了對(duì)LLaMA 3.1 405B模型的支持工作,開發(fā)了多機(jī)分布式推理功能,成功支持了該模型的推理,并最終使得Meta的十個(gè)官方發(fā)布合作伙伴中有八個(gè)選擇了vLLM。

        6. vLLM的重構(gòu)與優(yōu)化:性能與硬件兼容性

        為了解決早期性能跟蹤機(jī)制不足的問題,作者參與了vLLM的重構(gòu)工作,增加了基于ZMQ的API服務(wù)器、多步調(diào)度等特性,并創(chuàng)建了vllm.platforms子模塊,以提高性能和硬件兼容性。

        7. torch.compile集成與PyTorch生態(tài)系統(tǒng)

        作者推動(dòng)vLLM加入PyTorch生態(tài)系統(tǒng),并與PyTorch團(tuán)隊(duì)合作,開發(fā)了vLLM專屬的推理優(yōu)化torch.compile技術(shù)棧。

        8. PyTorch Conference與Meetup:技術(shù)交流與學(xué)習(xí)

        作者參加了PyTorch 2024大會(huì),并與多位業(yè)內(nèi)專家交流學(xué)習(xí),分享了在硅谷技術(shù)社區(qū)的參與經(jīng)歷。

        9. vLLM的未來與開源精神

        作者認(rèn)為vLLM將成為智能時(shí)代的“Linux”,并希望通過加入Linux基金會(huì),進(jìn)一步壯大社區(qū),共同建設(shè)智能時(shí)代的生態(tài)系統(tǒng)。

        10. 硬件親和性與算法發(fā)展

        作者引用《The Hardware Lottery》論文,強(qiáng)調(diào)了硬件親和性對(duì)算法成功的重要性,建議算法研究人員應(yīng)與硬件發(fā)展緊密結(jié)合,而非僅僅依靠“硬件彩票”。

        11. 泡沫與奇跡:對(duì)AI未來發(fā)展的展望

        作者認(rèn)為AI發(fā)展如同互聯(lián)網(wǎng)發(fā)展一樣,經(jīng)歷泡沫后仍將擁有巨大的潛力,并對(duì)AI的未來發(fā)展充滿信心。


        聯(lián)系作者

        文章來源:智猩猩GenAI
        作者微信:
        作者簡(jiǎn)介:智猩猩旗下公眾號(hào)之一,深入關(guān)注大模型與AI智能體,及時(shí)搜羅生成式AI技術(shù)產(chǎn)品。

        閱讀原文
        ? 版權(quán)聲明
        蟬鏡AI數(shù)字人

        相關(guān)文章

        蟬鏡AI數(shù)字人

        暫無評(píng)論

        暫無評(píng)論...
        主站蜘蛛池模板: 久久精品亚洲视频| 亚洲日韩中文在线精品第一| 亚洲av无码乱码在线观看野外| 久久精品国产亚洲AV忘忧草18 | 国产精品亚洲片在线花蝴蝶| 伊人久久亚洲综合影院首页| 野花高清在线电影观看免费视频| 亚洲成a人片77777群色| 99爱在线精品免费观看| 国产免费69成人精品视频| 亚洲成av人在线观看网站| 青青操视频在线免费观看| 精品无码国产污污污免费网站| 午夜寂寞在线一级观看免费| 国产亚洲美女精品久久久久狼| 3344在线看片免费| 深夜国产福利99亚洲视频| 男女男精品网站免费观看| 成年女人毛片免费视频| 亚洲AV日韩精品久久久久| 美女又黄又免费的视频| 在线观看av永久免费| 亚洲av综合av一区二区三区 | 亚洲av午夜精品无码专区| 成全视频在线观看免费高清动漫视频下载 | 精品国产sm捆绑最大网免费站| 亚洲中文无韩国r级电影| 中文字幕在线视频免费| 在线jyzzjyzz免费视频| 男女猛烈无遮掩视频免费软件| 亚洲AV无码专区亚洲AV伊甸园 | 免费看又黄又无码的网站 | 一区二区3区免费视频| 亚洲毛片在线观看| 成人au免费视频影院| 七次郎成人免费线路视频| 亚洲成色WWW久久网站| 水蜜桃视频在线观看免费播放高清 | 全部免费国产潢色一级| 中国一级特黄的片子免费 | 亚洲一区二区女搞男|