標簽:序列
擊敗OpenAI,權重、數(shù)據(jù)、代碼全開源,能完美復現(xiàn)的嵌入模型Nomic Embed來了
機器之心報道 編輯:陳萍、小舟模型參數(shù)量只有 137M,5 天就能訓練好。一周前,OpenAI 給廣大用戶發(fā)放福利,在下場修復 GPT-4 變懶的問題后,還順道上新了 5 ...
準確率不足20%,GPT-4V/Gemini竟看不懂漫畫!首個圖像序列基準測試開源
新智元報道編輯:LRS 【新智元導讀】馬里蘭大學聯(lián)合北卡教堂山發(fā)布首個專為多模態(tài)大語言模型(MLLM)設計的圖像序列的基準測試Mementos,涵蓋了真實世界圖像...
Mamba論文為什么沒被ICLR接收?AI社區(qū)沸騰了
機器之心報道 編輯:張倩、蛋醬基于 Mamba 的創(chuàng)新正不斷涌現(xiàn),但原論文卻被 ICLR 放到了「待定區(qū)」。 2023 年,Transformer 在 AI 大模型領域的統(tǒng)治地位被撼...
消滅「幻覺」!谷歌全新ASPIRE方法讓LLM給自己打分,效果碾壓10x體量模型
新智元報道編輯:潤 【新智元導讀】谷歌和威斯康星麥迪遜大學的研究人員推出了一個讓LLM給自己輸出打分的選擇性預測系統(tǒng),通過軟提示微調和自評估學習,取得...
視覺Mamba來了:速度提升2.8倍,內存能省87%
機器之心報道 編輯:陳萍、澤南Vision Mamba 不是個普通模型。號稱「全面包圍 Transformer」的 Mamba,推出不到兩個月就有了高性能的視覺版。 本周四,來自華...
?新一代注意力機制Lightning Attention-2:無限序列長度、恒定算力開銷、更高建模精度
機器之心專欄 機器之心編輯部Lightning Attention-2 是一種新型的線性注意力機制,讓長序列的訓練和推理成本與 1K 序列長度的一致。 大語言模型序列長度的限...
今日Arxiv最熱NLP大模型論文:清華大學讓大語言模型自動并行自回歸解碼,速度提升高達4倍!
夕小瑤科技說 原創(chuàng)作者 | 賽博馬良 本文內容由 賽博馬良「AI論文解讀達人」 智能體生成,人工整理排版。 「AI論文解讀達人」 可提供最熱AI論文推薦、論文解讀...
性能大漲20%!中科大「狀態(tài)序列頻域預測」方法:表征學習樣本效率max|NeurIPS 2023 Spotlight
新智元報道編輯:LRS 好困 【新智元導讀】SPF算法是一種基于狀態(tài)序列頻域預測的表征學習方法,利用狀態(tài)序列的頻域分布來顯式提取狀態(tài)序列數(shù)據(jù)中的趨勢性和規(guī)...
多 Transformer 集合可挑戰(zhàn) GPT-4,推理能力是單一Transformer 的 18 倍
ICLR 匿名研究:單一 Transformer 不具備圖靈完備性,但多 Transformer 可以。作者丨郭思、賴文昕 編輯丨陳彩嫻 Transformer 自 2017 年出世以來就在 AI 領域...
AI測出你幾歲死亡?Transformer「算命」登Nature子刊,成功預測意外死亡
新智元報道編輯:潤 【新智元導讀】AI算命將可以預測人類的意外死亡?丹麥科學家用全國600萬人的公開數(shù)據(jù)訓練了一個基于Transformer的模型,成功預測了意外死...
千元成本搞定專業(yè)大模型,系統(tǒng)優(yōu)化+開源大模型是關鍵 | 潞晨卞正達@MEET2024
編輯部 整理自 MEET2024量子位 | 公眾號 QbitAI大模型元年里,哪怕是跑在趨勢最前沿的基座模型廠商,都難逃算力焦慮。 一方面,大模型本身由于技術特性,算力...
Hyena成下一代Transformer?StripedHyena-7B開源:最高128k輸入,訓練速度提升50%
新智元報道編輯:LRS 【新智元導讀】Hyena處理長序列輸入比FlashAttention速度高100倍!最新發(fā)布的StripedHyena模型可能成下一代AI架構的新標準?最近幾年發(fā)...
Mamba可以替代Transformer,但它們也能組合起來使用
機器之心報道 編輯:Panda W1+1>2。Transformer 很厲害,但并不完美,尤其是在處理長序列方面。而狀態(tài)空間模型(SSM)則在長序列上的表現(xiàn)相當不俗。早在去年...
全球最強「開源版Gemini」誕生!全能多模態(tài)模型Emu2登熱榜,多項任務刷新SOTA
新智元報道編輯:桃子 好困 【新智元導讀】最強的全能多模態(tài)模型來了!就在近日,智源研究院重磅發(fā)布了開源界的「Gemini」——Emu2,一口氣刷新多項SOTA。過去...
挑戰(zhàn)Transformer的Mamba是什么來頭?作者博士論文理清SSM進化路徑
機器之心報道 編輯:張倩對 SSM 感興趣的研究者不妨讀一下這篇博士論文。 在大模型領域,Transformer 憑一己之力撐起了整個江山。但隨著模型規(guī)模的擴展和需要...
粵公網(wǎng)安備 44011502001135號