AIGC動態歡迎閱讀
原標題:大模型被偷家!騰訊港中文新研究修正認知:CNN搞多模態不弱于Transfromer
關鍵字:報告,騰訊,卷積,圖像,架構
文章來源:量子位
內容字數:5852字
內容摘要:
騰訊&港中文團隊 投稿量子位 | 公眾號 QbitAI在Transformer占據多模態工具半壁江山的時代,大核CNN又“殺了回來”,成為了一匹新的黑馬。
騰訊AI實驗室與港中文聯合團隊提出了一種新的CNN架構,圖像識別精度和速度都超過了Transformer架構模型。
切換到點云、音頻、視頻等其他模態,也無需改變模型結構,簡單預處理即可接近甚至超越SOTA。
團隊提出了專門用于大核CNN架構設計的四條guideline和一種名為UniRepLKNet的強力backbone。
只要用ImageNet-22K對其進行預訓練,精度和速度就都能成為SOTA——
ImageNet達到88%,COCO達到56.4 box AP,ADE20K達到55.6 mIoU,實際測速優勢很大。
在時序預測的超大數據上使用UniRepLKNet,也能達到最佳水平——
例如在全球氣溫和風速預測上,它就超越了Nature子刊上基于Transformer的前SOTA。
更多細節,我們接著看作者投稿。
“Transformer時代”,為什么還需要CNN在正式介紹UniRepLKNet的原理之前,作者首先解答了兩個問題
原文鏈接:大模型被偷家!騰訊港中文新研究修正認知:CNN搞多模態不弱于Transfromer
聯系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...