AIGC動態歡迎閱讀
原標題:紐約大學聯合博世提出自適應分辨率占用預測框架AdaOcc | 一作紐約大學陳超博士主講預告
關鍵字:方法,語義,猩猩,細節,大學
文章來源:智猩猩GenAI
內容字數:0字
內容摘要:
在復雜的城市場景中實現自動駕駛需要全面且準確地感知環境。傳統的3D感知方法重于目標檢測,缺乏環境細節信息的稀疏表示。3D占用預測方法能夠估計車輛周圍的3D占用,讓自動駕汽車獲得更全面的場景表示。稠密的3D占用預測提供了準確性,但也提高了計算需求;而全稀疏的3D占用預測效率高,但是缺乏細節信息。
為此,紐約大合博世集團提出一個更靈活且高效的自適應分辨率占用預測框架AdaOcc,能夠在各種駕駛場景中實現精確的 3D 語義占用預測。AdaOcc將以目標為中心的3D重建和整體占用預測集成到一個框架內,僅在在感興趣區域(ROIs)進行高分辨率的3D重建,同時在其他區域保持較低分辨率,以實現計算資源的優化分配。這種方法不僅提高了關鍵區域的細節捕捉能力,而且通過點云表示高細節的3D表面,突破了傳統占用網格分辨率的限制,從而在保持整體計算效率的同時,顯著提升了自動駕駛車輛的環境感知精度。通過在nuScenes數據集上進行全面實驗,證明了AdaOcc相比于現有方法有了明顯提升,能夠在各種駕駛場景中提供準確的3D語義占用預測。在近距離場景中,AdaOcc在IOU上超過先前的基線13%,在Hausdor
原文鏈接:紐約大合博世提出自適應分辨率占用預測框架AdaOcc | 一作紐約大學陳超博士主講預告
聯系作者
文章來源:智猩猩GenAI
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...