大模型步入「推理Scaling」時(shí)代,SambaNova如何挑戰(zhàn)英偉達(dá)的霸主地位?
AIGC動態(tài)歡迎閱讀
原標(biāo)題:大模型步入「推理Scaling」時(shí)代,SambaNova如何挑戰(zhàn)英偉達(dá)的霸主地位?
關(guān)鍵字:模型,芯片,數(shù)據(jù)流,架構(gòu),算子
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
機(jī)器之心報(bào)道
作者:蛋醬OpenAI o1 的發(fā)布,再次給 AI 領(lǐng)域帶來了一場。
o1 能像人類一樣「思考」復(fù)雜問題,擁有優(yōu)秀的通用推理能力。在未經(jīng)專門訓(xùn)練的情況下,o1 能夠直接拿下數(shù)學(xué)奧賽金牌,甚至能在博士級別的科學(xué)問答環(huán)節(jié)上超越人類專家。
在性能躍升之外,更重要的是,它揭示了大模型進(jìn)化范式的轉(zhuǎn)變:通過更多的強(qiáng)化學(xué)習(xí)(訓(xùn)練時(shí)計(jì)算)和更多的推理(Test-Time 計(jì)算),模型可以獲得更強(qiáng)大的性能。
這又一次讓我們想起 Richard Sutton 在《The Bitter Lesson》中所說的,利用計(jì)算能力的一般方法最終是最有效的方法。這類方隨著算力的增加而繼續(xù)擴(kuò)展,搜索和學(xué)習(xí)似乎正是兩種以此方式隨意擴(kuò)展的方法。連山姆?奧特曼也坦言,在未來的一段時(shí)間里,新范式進(jìn)化的曲線會非常陡峭。
從「訓(xùn)練 Scaling」到「推理 Scaling」的范式轉(zhuǎn)變,也引發(fā)了關(guān)于計(jì)算資源分配和硬件選擇的重新思考。領(lǐng)域內(nèi)的研究者和從業(yè)者認(rèn)識到,一方面,更多的計(jì)算資源應(yīng)該投入到推理階段,另一方面,優(yōu)化硬件配置以提升大模型推理的效率將是下一階段的攻關(guān)重點(diǎn)。而大模型要進(jìn)行推理 Scaling,實(shí)際上
原文鏈接:大模型步入「推理Scaling」時(shí)代,SambaNova如何挑戰(zhàn)英偉達(dá)的霸主地位?
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:
作者簡介: