拓撲對齊圖驅動的機器人配置估計框架RoboTAG:2D+3D雙分支融合,無標注訓練,平均AUC76.9% 超基線1.2%
摘要:來自清華大學&哈佛大學&麻省理工學院&卡內基梅隆大學的團隊聯合研發的RoboTAG《RoboTAG: End-to-end Robot Configuration Estimation via Topological Alignment Graph》:這是一種端到端機器人配置估計框架,通過構建 “雙分支節點 + 雙向邊 + 閉環監督” 的拓撲圖,融合 2D 視覺特征與 3D 深度先驗,無需依賴大量標注數據即可訓練。該框架在 DREAM 數據集上平均 AUC 達 76.9%(超 SOTA 1.2%),推理延遲僅 35ms,支持 Panda、Kuka、Baxter 多機器人類型,徹底解決傳統方法 “依賴標注數據、忽略 3D 先驗、泛化能力弱” 的核心痛點。
