AIGC動態歡迎閱讀
原標題:視覺Mamba來了:速度提升2.8倍,內存能省87%
關鍵字:視覺,圖像,序列,維度,建模
文章來源:機器之心
內容字數:5361字
內容摘要:
機器之心報道
編輯:陳萍、澤南Vision Mamba 不是個普通模型。號稱「全面包圍 Transformer」的 Mamba,推出不到兩個月就有了高性能的視覺版。
本周四,來自華中科技大學、地平線、智源人工智能研究院等機構的研究者提出了 Vision Mamba(Vim)。論文地址:https://arxiv.org/pdf/2401.09417.pdf
項目地址:https://github.com/hustvl/Vim
論文標題:Vision Mamba: Efficient Visual Representation Learning with Bidirectional State Space Model
效果如何呢?在 ImageNet 分類任務、COCO 對象檢測任務和 ADE20k 語義分割任務上,與 DeiT 等成熟的視覺 Transformers 相比,Vim 實現了更高的性能,同時還顯著提高了計算和內存效率。例如,在對分辨率為 1248×1248 的圖像進行批量推理提取特征時,Vim 比 DeiT 快 2.8 倍,并節省 86.8% 的 GPU 內存。結果表明,V
原文鏈接:視覺Mamba來了:速度提升2.8倍,內存能省87%
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...