標(biāo)簽:序列

斯坦福博士圖解AlphaFold 3:超多細(xì)節(jié)+可視化還原ML工程師眼中的AF3

新智元報道編輯:喬楊 庸庸 【新智元導(dǎo)讀】AlphaFold 3的論文太晦澀?沒關(guān)系,斯坦福大學(xué)的兩位博士生「圖解」AlphaFold 3 ,將模型架構(gòu)可視化,同時不遺漏任...
閱讀原文

清華提出時間序列大模型:面向通用時序分析的生成式Transformer | ICML 2024

新智元報道編輯:LRST 好困 【新智元導(dǎo)讀】大模型在語言、圖像領(lǐng)域取得了巨大成功,時間序列作為多個行業(yè)的重要數(shù)據(jù)類型,時序領(lǐng)域的大模型構(gòu)建尚處于起步階...
閱讀原文

多篇頂會成果!多人互動中的人體動作與反應(yīng)生成 | 上海交大徐良博士講座預(yù)告

「智猩猩AI新青年講座」由智猩猩出品,致力于邀請青年學(xué)者,主講他們在生成式AI、LLM、AI Agent、CV等人工智能領(lǐng)域的最新重要研究成果。 AI新青年是加速人工...
閱讀原文

kimi chat大模型的200萬長度無損上下文可能是如何做到的?

7月11日19點,「智猩猩自動駕駛新青年講座」第36講將開講,主講理想汽車最新成果:基于MLLM的閉環(huán)規(guī)劃智能體PlanAgent,由理想汽車實習(xí)研究員、中國科學(xué)院自...
閱讀原文

大模型最強(qiáng)架構(gòu)TTT問世!斯坦福UCSD等5年磨一劍, 一夜Transformer

新智元報道編輯:編輯部 【新智元導(dǎo)讀】超越Transformer和Mamba的新架構(gòu),剛剛誕生了。斯坦福UCSD等機(jī)構(gòu)研究者提出的TTT方法,直接替代了注意力機(jī)制,語言模...
閱讀原文

圖神經(jīng)網(wǎng)絡(luò)加持,突破傳統(tǒng)推薦系統(tǒng)局限!北大港大聯(lián)合提出SelfGNN:有效降低信息過載與數(shù)據(jù)噪聲影響

新智元報道編輯:LRST 好困 【新智元導(dǎo)讀】SelfGNN框架結(jié)合了圖神經(jīng)網(wǎng)絡(luò)和個性化自增強(qiáng)學(xué)習(xí),能夠捕捉用戶行為的多時間尺度模式,降低噪聲影響,提升推薦系統(tǒng)...
閱讀原文

LLM用于時序預(yù)測真的不行,連推理能力都沒用到

機(jī)器之心報道 編輯:panda語言模型真的能用于時序預(yù)測嗎?根據(jù)貝特里奇頭條定律(任何以問號結(jié)尾的新聞標(biāo)題,都能夠用「不」來回答),答案應(yīng)該是否定的。事...
閱讀原文

拆分Transformer注意力,韓國團(tuán)隊讓大模型解碼提速20倍

克雷西 發(fā)自 凹非寺量子位 | 公眾號 QbitAI只要將注意力切塊,就能讓大模型解碼提速20倍。 來自韓國科學(xué)技術(shù)研究院、LG和DeepMind的研究人員,提出了一種新的...
閱讀原文

模擬5億年的進(jìn)化信息,首個同時推理蛋白質(zhì)序列、結(jié)構(gòu)和功能的生物學(xué)大模型

來源:ScienceAI 編輯:蘿卜皮 在三十億年的自然進(jìn)化歷程中,現(xiàn)存蛋白質(zhì)的形態(tài)得以形成,經(jīng)歷了漫長的自然篩選過程。進(jìn)化如同在地質(zhì)時間尺度上進(jìn)行的平行實驗...
閱讀原文

模擬5億年自然進(jìn)化史,全新蛋白質(zhì)大模型ESM3誕生!前Meta老將力作LeCun轉(zhuǎn)贊

新智元報道編輯:喬楊 好困 【新智元導(dǎo)讀】能抗衡AlphaFold 3的生命科學(xué)大模型終于出現(xiàn)了。初創(chuàng)公司Evolutionary Scale AI發(fā)布了他們最新的98B參數(shù)蛋白質(zhì)語言...
閱讀原文

小米大模型提效新框架:訓(xùn)練最高提速34%,推理最高提速52%!Kaldi之父合作出品

直播預(yù)告 | 6月25日晚7點,「智猩猩機(jī)器人新青年講座」第9講正式開講,UMass Amherst在讀博士周沁泓將直播講解《在具身智能模擬器中針對動態(tài)災(zāi)害進(jìn)行具身決策...
閱讀原文

AI研究的主要推動力會是什么?ChatGPT團(tuán)隊研究科學(xué)家:算力成本下降

機(jī)器之心報道 編輯:PandaAI 研究發(fā)展的主要推動力是什么?在最近的一次演講中,OpenAI 研究科學(xué)家 Hyung Won Chung 給出了自己的答案。 近日,斯坦福大學(xué)《C...
閱讀原文

谷歌開源TimesFM:1000億個時間點訓(xùn)練,入選ICML 2024

新智元報道編輯:喬楊 【新智元導(dǎo)讀】在大語言模型突飛猛進(jìn)的同時,谷歌的研究團(tuán)隊在時序預(yù)測方面也取得了突破性的成果——今年2月發(fā)表的模型TimesFM,而且放出...
閱讀原文

原作者帶隊,LSTM卷土重來之Vision-LSTM出世

機(jī)器之心報道 編輯:鴨梨、蛋醬與 DeiT 等使用 ViT 和 Vision-Mamba (Vim) 方法的模型相比,ViL 的性能更勝一籌。 AI 領(lǐng)域的研究者應(yīng)該還記得,在 Transforme...
閱讀原文

Mamba-2新架構(gòu)出世一統(tǒng)江湖!普林斯頓CMU華人再出神作,性能狂飆8倍

新智元報道編輯:編輯部 【新智元導(dǎo)讀】在開源社區(qū)引起「海嘯」的Mamba架構(gòu),再次卷土重來!這次,Mamba-2順利拿下ICML。通過統(tǒng)一SSM和注意力機(jī)制,Transform...
閱讀原文