探索高效觸覺表征:讓機器人更聰明的學習之旅
內(nèi)含報名地址
原標題:線上分享| 面向機器人學習的數(shù)據(jù)高效觸覺表征
文章來源:HyperAI超神經(jīng)
內(nèi)容字數(shù):1941字
新銳論前沿第四期活動預告
由具身觸覺主辦、HyperAI超神經(jīng)協(xié)辦的「新銳論前沿」第四期線上分享活動,將于12月18日(周三)20:30正式上線。本次活動特邀普渡大學三年級博士生徐政通,分享主題為「面向機器人學習的數(shù)據(jù)高效觸覺表征」。參與者可通過掃描二維名,活動還設(shè)有抽獎環(huán)節(jié),參與者有機會贏得由OpenBayes貝式計算贊助的算力福利——60小時NVIDIA RTX 4090算力資源,價值160元。
嘉賓介紹
徐政通是普渡大學三年級博士生,導師為佘宇教授,研究方向為機器人學習與觸覺感知。他在華中科技大學機械科學與工程學院獲得學士學位,并在本科期間獲得國家獎學金。目前,他在博士階段曾獲普渡大學Dr. Theodore J. and Isabel M. Williams fellowship。更多信息可訪問他的個人主頁:徐政通個人主頁。
分享內(nèi)容簡介
本次分享將圍繞基于GelSight的觸覺圖像與傳統(tǒng)視覺圖像的顯著差異展開。觸覺圖像主要展示物體的幾何特征和接觸信息,且其顏色分布相較于視覺圖像更加緊湊。這些特點為數(shù)據(jù)高效的觸覺表征學習提供了可能,從而降低了機器人學習中對繁瑣數(shù)據(jù)采集的依賴。
徐政通博士將介紹兩項研究工作。在第一項研究LeTac-MPC中,研究團隊展示了如何從傳統(tǒng)控制方法出發(fā),通過學習物理驅(qū)動的觸覺表征,設(shè)計可微分的模型預測控制器,實現(xiàn)對廣泛日常物體的響應式抓取。在第二項研究UniT中,團隊探討了如何通過少量單一物體的數(shù)據(jù)學習出能夠泛化至未見物體的觸覺表征,并利用這種數(shù)據(jù)高效的觸覺表征來促進感知與策略學習等下游任務。
往期推薦
如需獲取更多資源,歡迎戳“閱讀原文”,免費獲取海量數(shù)據(jù)集資源!
聯(lián)系作者
文章來源:HyperAI超神經(jīng)
作者微信:
作者簡介:解構(gòu)技術(shù)先進性與普適性,報道更前沿的 AIforScience 案例