標(biāo)簽:函數(shù)

綜合RLHF、DPO、KTO優(yōu)勢,統(tǒng)一對齊框架UNA來了

AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)...
閱讀原文

Python程序到計算圖一鍵轉(zhuǎn)化,詳解清華開源深度學(xué)習(xí)編譯器MagPy

AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)...
閱讀原文

KAN 1.0到2.0:構(gòu)建全新神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),開創(chuàng)AI+Science大統(tǒng)一新范式

導(dǎo)語今年4月,Max Tegmark 團隊發(fā)布了一種嶄新的深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu) Kolmogorov-Arnold Network(簡稱KAN) 后迅速引起轟動,論文一作劉子鳴在集智俱樂部 AI+Sc...
閱讀原文

Pandas中使用pivot_table函數(shù)進行高級數(shù)據(jù)匯總

大數(shù)據(jù)文摘受權(quán)轉(zhuǎn)載自機器學(xué)習(xí)算法與Python實戰(zhàn) Pandas的pivot_table函數(shù)是一個強大的數(shù)據(jù)分析工具,可以幫助我們快速地對數(shù)據(jù)進行匯總和重塑。 本文將詳細(xì)介...
閱讀原文

使神經(jīng)網(wǎng)絡(luò)更容易理解,促進科學(xué)發(fā)現(xiàn),MIT劉子鳴團隊新架構(gòu)

來源:ScienceAI 編譯:白菜葉 「神經(jīng)網(wǎng)絡(luò)是目前人工智能領(lǐng)域最強大的工具。」Perimeter Institute for Theoretical Physics 的研究員 Sebastian Wetzel 表示...
閱讀原文

KAN結(jié)合Transformer,真有團隊搞出了解決擴展缺陷的KAT

機器之心報道 編輯:小舟、陳陳Transformer 是現(xiàn)代深度學(xué)習(xí)的基石。傳統(tǒng)上,Transformer 依賴多層感知器 (MLP) 層來混合通道之間的信息。 前段時間,來自 MIT...
閱讀原文

Sigmoid注意力一樣強,蘋果開始重新審視注意力機制

機器之心報道 機器之心編輯部注意力是 Transformer 架構(gòu)的關(guān)鍵部分,負(fù)責(zé)將每個序列元素轉(zhuǎn)換為值的加權(quán)和。將查詢與所有鍵進行點積,然后通過 softmax 函數(shù)歸...
閱讀原文

ECCV 2024 | 探索離散Token視覺生成中的自適應(yīng)推理策略

AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)...
閱讀原文

KAN干翻MLP,開創(chuàng)神經(jīng)網(wǎng)絡(luò)新范式!一個數(shù)十年前數(shù)學(xué)定理,竟被MIT華人學(xué)者復(fù)活了

新智元報道編輯:桃子 【新智元導(dǎo)讀】KAN的誕生,開啟了機器學(xué)習(xí)的新紀(jì)元!而這背后,竟是MIT華人科學(xué)家最先提出的實踐想法。從KAN到KAN 2.0,這個替代MLP全...
閱讀原文

斯坦福最新理論研究:RLHF中獎勵過度優(yōu)化現(xiàn)象也存在Scaling Laws

大數(shù)據(jù)文摘授權(quán)轉(zhuǎn)載自將門創(chuàng)投 作者:seven_ 可以說,人類反饋強化學(xué)習(xí) (RLHF) 是一把解鎖大型語言模型(LLMs)涌現(xiàn)能力的金鑰匙。它使擁有龐大參數(shù)規(guī)模的語言...
閱讀原文

30行代碼,500萬長文本推理提速8倍!「樹注意力」讓GPU越多省的越多

夢晨 發(fā)自 凹非寺量子位 | 公眾號 QbitAI跨GPU的注意力并行,最高提速8倍,支持512萬序列長度推理。 環(huán)注意力(Ring Attention)后繼者——樹注意力(Tree Atte...
閱讀原文

AI頂會ICML收了一篇論文:沒算法沒實驗

蔡永強 投稿量子位 | 公眾號 QbitAI沒有算法沒有實驗,從2610篇收錄論文中脫穎而出,成為唯一一篇純理論入選2024 ICML Spotlight的論文。 “Vocabulary for Un...
閱讀原文

黎曼猜想的新突破

來源:老胡說科學(xué) 素數(shù)是指那些除了1和自身以外,無法被其他正整數(shù)整除的數(shù),比如2、3、5、7、11、13……它們的神秘之處在于,我們無法完全理解并預(yù)測它們在數(shù)...
閱讀原文

小模型狂飆!6家巨頭爭相發(fā)布小模型,Andrej Karpathy:大語言模型的尺寸競爭正在倒退…

夕小瑤科技說 原創(chuàng)作者 | 21#過去一周,可謂是小模型戰(zhàn)場最瘋狂的一周,商業(yè)巨頭改變賽道,向大模型say byebye~。 OpenAI、Apple、Mistral等“百花齊放”,紛紛...
閱讀原文

反轉(zhuǎn)了?在一場新較量中,號稱替代MLP的KAN只贏一局

機器之心報道 機器之心編輯部KAN 在符號表示中領(lǐng)先,但 MLP 仍是多面手。 多層感知器 (Multi-Layer Perceptrons,MLP) ,也被稱為全連接前饋神經(jīng)網(wǎng)絡(luò),是當(dāng)今...
閱讀原文
12347