AIGC動態歡迎閱讀
原標題:NeurIPS 2024 | 機器人操縱世界模型來了,成功率超過谷歌RT-1 26.6%
關鍵字:機器人,模型,動作,華為,任務
文章來源:機器之心
內容字數:0字
內容摘要:
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com對于人類而言,一旦掌握了 “打開瓶蓋” 的動作,面對 “擰緊螺絲” 這樣的任務通常也能游刃有余,因為這兩者依賴于相似的手部動作。然而,對于機器人來說,即使是這樣看似簡單的任務轉換依然充滿挑戰。例如,換成另一種類型的瓶蓋,機器人可能無法成功打開。這表明,目前的機器人方法尚未充分讓模型學習到任務的內在執行邏輯,而只是單純的依賴于數據擬合。
針對該問題,來自中山大學和華為諾亞等單位的研究團隊提出了一種全新的原語驅動的路徑點感知世界模型,借助 VLMs 作為機器人的大腦,理解任務之間的動作關聯性,并通過 “世界模型” 獲取對未來動作的表征,從而更好地幫助機器人學習和決策。該方法顯著提升了機器人的學習能力,并保持良好的泛化性。論文地址:https://arxiv.org
原文鏈接:NeurIPS 2024 | 機器人操縱世界模型來了,成功率超過谷歌RT-1 26.6%
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...