視覺-語(yǔ)言模型中的空間智能抽象3D感知框架SandboxVLM:零樣本提升8.3%,突破2D-3D模態(tài)鴻溝
SandboxVLM 抽象 3D 感知框架:零樣本提升 VLM 空間推理 8.3%,適配 GPT-4o/Gemini,具身智能 / 機(jī)器人場(chǎng)景適用。
物體中心槽位記憶驅(qū)動(dòng)的機(jī)器人操作框架Embodied-SlotSSM:LIBERO-Mem 基準(zhǔn)突破非馬爾可夫場(chǎng)景,成功率提升20%+
Embodied-SlotSSM 機(jī)器人操作框架:LIBERO-Mem 非馬爾可夫基準(zhǔn),物體中心槽位記憶,成功率提升 20%+,適配工業(yè) / 家庭服務(wù)場(chǎng)景。
首個(gè)聚焦多無人機(jī)協(xié)同具身感知與推理的綜合基準(zhǔn)AirCopBench:14.6k問題覆蓋四大維度,40個(gè)MLLM評(píng)估揭示24.38%性能差距
AirCopBench 多無人機(jī)協(xié)同基準(zhǔn):14.6k 問題覆蓋 4 大維度,評(píng)估 40 個(gè) MLLM,揭示 24.38% 人類差距,支持模擬到真實(shí)遷移。
具身視覺查詢定位框架EAGLE:外觀感知元學(xué)習(xí)記憶AMM+幾何感知定位記憶GLM雙驅(qū)動(dòng),2D-3D統(tǒng)一定位,性能超同類
EAGLE 視覺查詢定位框架:外觀 - 幾何雙記憶,2D-3D 統(tǒng)一定位,Ego4D-VQ 基準(zhǔn) tAP25 達(dá) 0.47,超 SOTA 性能。
零樣本物體導(dǎo)航框架:鏈?zhǔn)剿季S+動(dòng)態(tài)動(dòng)作歷史記憶+頂視地圖解析
零樣本物體導(dǎo)航框架:VLM 鏈?zhǔn)剿季S + 動(dòng)作記憶,HM3D 成功率 54.3%,超 SOTA,適配智能家居 / 工業(yè)巡檢。
具身視覺導(dǎo)航框架SCOPE:語(yǔ)義認(rèn)知+勢(shì)能探索,零樣本場(chǎng)景準(zhǔn)確率提升4.6%,長(zhǎng)程規(guī)劃魯棒性顯著增強(qiáng)
SCOPE 具身視覺導(dǎo)航框架:零樣本場(chǎng)景準(zhǔn)確率提升 4.6%,語(yǔ)義認(rèn)知 + 勢(shì)能探索,適配智能家居 / 災(zāi)害響應(yīng) / 深空探索。
測(cè)試驅(qū)動(dòng)強(qiáng)化學(xué)習(xí)框架TdRL:告別手動(dòng)獎(jiǎng)勵(lì)設(shè)計(jì),多目標(biāo)連續(xù)控制性能提升超13%
TdRL 測(cè)試驅(qū)動(dòng)強(qiáng)化學(xué)習(xí)框架:替代獎(jiǎng)勵(lì)函數(shù),多目標(biāo)連續(xù)控制達(dá)標(biāo)率提升 13%+,適配機(jī)器人 / 自動(dòng)駕駛,DeepMind 基準(zhǔn)性能超傳統(tǒng) RL。
軌跡優(yōu)化驅(qū)動(dòng)的硬約束流匹配采樣框架HardFlow:無訓(xùn)練引導(dǎo),約束滿足率100%,多領(lǐng)域誤差降52.8%
HardFlow :軌跡優(yōu)化 + MPC 分解,約束滿足率 100%,無訓(xùn)練引導(dǎo),適配機(jī)器人 / 圖像編輯 / PDE 控制。
可微分高斯渲染驅(qū)動(dòng)的多視角3D人體姿態(tài)估計(jì)框架SkelSplat:無3D標(biāo)注,抗遮擋MPJPE34.8mm,跨數(shù)據(jù)集誤差降47.8%
SkelSplat 多視角 3D 人體姿態(tài)估計(jì):可微分高斯渲染 + 單熱編碼,無 3D 標(biāo)注,抗遮擋 MPJPE 34.8mm,跨數(shù)據(jù)集誤差降 47.8%。
跨平臺(tái)慣性里程計(jì)框架X-IONet:雙階段注意力+專家選擇,人類/四足機(jī)器人定位誤差降低14.3%-52.8%
X-IONet 跨平臺(tái)慣性里程計(jì):雙階段注意力 + 專家選擇 + EKF 融合,人類 / 四足機(jī)器人 ATE 降低 14.3%-52.8%,單 IMU 實(shí)時(shí)定位。
拓?fù)鋵?duì)齊圖驅(qū)動(dòng)的機(jī)器人配置估計(jì)框架RoboTAG:2D+3D雙分支融合,無標(biāo)注訓(xùn)練,平均AUC76.9% 超基線1.2%
RoboTAG 機(jī)器人配置估計(jì)框架:2D-3D 拓?fù)鋵?duì)齊圖 + 閉環(huán)監(jiān)督,無標(biāo)注訓(xùn)練,平均 AUC 76.9%,推理 35ms,適配多機(jī)器人類型。
無動(dòng)作標(biāo)簽視頻驅(qū)動(dòng)的機(jī)器人控制框架ViPRA:潛行動(dòng)作+流匹配,高頻控制達(dá)22Hz,仿真/真實(shí)任務(wù)性能提升13%-16%
ViPRA 無動(dòng)作標(biāo)簽機(jī)器人控制框架:潛行動(dòng)作 + 流匹配,22Hz 高頻控制,仿真 / 真實(shí)任務(wù)提升 13%-16%,適配單 / 雙臂操縱。
Physical AI基礎(chǔ)理論:六大核心原則構(gòu)建具身智能新范式,從物理交互到道德責(zé)任,賦能機(jī)器人/康復(fù)/工業(yè)場(chǎng)景
Physical AI 六大核心原則:具身性 / 感知 / 運(yùn)動(dòng) / 學(xué)習(xí) / 自主 / 情境敏感性,構(gòu)建具身智能閉環(huán),仿真能量損失降 52%,賦能康復(fù) / 工業(yè) / 護(hù)理場(chǎng)景。
記憶增強(qiáng)的視覺-語(yǔ)言-動(dòng)作模型MAP-VLA:長(zhǎng)程機(jī)器人操縱成功率提升25%,仿真超基線7.0%
MAP-VLA 記憶增強(qiáng) VLA 模型:長(zhǎng)程機(jī)器人操縱成功率提升 25%,仿真 83.4% 超基線 7.0%,輕量插件、抗干擾、少樣本泛化。
語(yǔ)義+幾何雙驅(qū)動(dòng)的功能型抓取生成框架IFG:VLM 指導(dǎo)+力閉合優(yōu)化,雜亂場(chǎng)景成功率32.23%
IFG 功能型抓取生成框架:VLM 語(yǔ)義指導(dǎo) + 力閉合優(yōu)化,無手動(dòng)數(shù)據(jù),雜亂場(chǎng)景成功率 32.23%,適配機(jī)器人靈巧抓取 / 雜亂環(huán)境 / 日常物體操作。
物理驅(qū)動(dòng)的靈巧重定向框架SPIDER:退火采樣+接觸引導(dǎo),人類運(yùn)動(dòng)轉(zhuǎn)機(jī)器人軌跡成功率提升18%
SPIDER 物理重定向框架:退火采樣 + 虛擬接觸引導(dǎo),人類運(yùn)動(dòng)轉(zhuǎn)機(jī)器人軌跡成功率提升 18%,快 10 倍,適配靈巧操作 / 人形機(jī)器人 / RL 訓(xùn)練。
人機(jī)協(xié)作HRC核心技術(shù)綜述:直觀編程+自適應(yīng)規(guī)劃+動(dòng)態(tài)角色分配,構(gòu)建雙向協(xié)同新范式
人機(jī)協(xié)作(HRC)、直觀編程、自適應(yīng)任務(wù)規(guī)劃、動(dòng)態(tài)角色分配、多模態(tài)交互、雙向信息流動(dòng)
SE (3) 流形上的類別級(jí)鉸接物體姿態(tài)跟蹤框架PPF-Tracker:加權(quán)PPF+運(yùn)動(dòng)學(xué)約束,旋轉(zhuǎn)誤差降低60%
PPF-Tracker 類別級(jí)鉸接物體姿態(tài)跟蹤框架:SE (3) 流形 + 加權(quán) PPF + 運(yùn)動(dòng)學(xué)約束,旋轉(zhuǎn)誤差降低 60%,推理 0.07s / 幀,適配機(jī)器人 / AR/VR。
3D人體姿態(tài)融合的穩(wěn)健動(dòng)作識(shí)別框架GroundActRec:跨注意力機(jī)制賦能,高遮擋場(chǎng)景準(zhǔn)確率提升6.79%
動(dòng)作識(shí)別框架GroundActRec:3D 人體姿態(tài) + 視覺上下文融合,跨注意力機(jī)制,InHARD 準(zhǔn)確率 83.47%,高遮擋場(chǎng)景提升 6.79%,適配工業(yè)機(jī)器人 / 輔助技術(shù)。
VLM 閉環(huán)符號(hào)規(guī)劃器:控制理論視角的機(jī)器人應(yīng)用優(yōu)化,熱啟動(dòng)提升28.2%,閉環(huán)目標(biāo)達(dá)成率超開環(huán)21.7%
VLM 機(jī)器人閉環(huán)符號(hào)規(guī)劃優(yōu)化:控制理論視角,熱啟動(dòng)提升 28.2%,閉環(huán)目標(biāo)達(dá)成率超開環(huán) 21.7%,適配長(zhǎng)程操縱 / 服務(wù)機(jī)器人 / 工業(yè)裝配。
大規(guī)模視覺推理鏈蒸餾框架Long Grounded Thoughts:1M+數(shù)據(jù)驅(qū)動(dòng),跨模態(tài)遷移提升超4%,VLM視覺推理超 SOTA
摘要:英偉達(dá)&多倫多大學(xué)&滑鐵盧大學(xué)&加州大學(xué)圣地亞哥分校聯(lián)合研發(fā)的大規(guī)模視覺推理鏈蒸餾框架Long Grounded Thoughts(LGT)《Long G
專為長(zhǎng)程機(jī)器人操縱設(shè)計(jì)的統(tǒng)一學(xué)習(xí)的具身視覺-語(yǔ)言規(guī)劃框架EVLP:動(dòng)態(tài)預(yù)訓(xùn)練+強(qiáng)化監(jiān)督微調(diào),長(zhǎng)程任務(wù)成功率79.4%,單步生成超高效,適配服務(wù)機(jī)器人/工業(yè)制造。
EVLP 具身視覺 - 語(yǔ)言規(guī)劃框架:動(dòng)態(tài)預(yù)訓(xùn)練 + 強(qiáng)化監(jiān)督微調(diào),長(zhǎng)程任務(wù)成功率 79.4%,單步生成超高效,適配服務(wù)機(jī)器人 / 工業(yè)制造。
VLM驅(qū)動(dòng)的零樣本抓取檢測(cè)框架VLAD-Grasp:無需訓(xùn)練數(shù)據(jù),Cornell數(shù)據(jù)集成功率達(dá)91.43%,適配未知物體與真實(shí)場(chǎng)景。
零樣本抓取檢測(cè)框架VLAD-Grasp:VLM生成+3D點(diǎn)云對(duì)齊,Cornell成功率91.43%,無需訓(xùn)練數(shù)據(jù),適配未知物體與真實(shí)場(chǎng)景。
開放詞匯移動(dòng)操作的零樣本基座放置框架:功能引導(dǎo)粗到細(xì)探索,跨模態(tài)語(yǔ)義-幾何融合,任務(wù)成功率85%,適配開柜子/物品放置等零樣本場(chǎng)景
開放詞匯移動(dòng)操作基座放置框架:功能引導(dǎo)粗到細(xì)探索,跨模態(tài)語(yǔ)義 - 幾何融合,任務(wù)成功率 85%,適配開柜子 / 物品放置等零樣本場(chǎng)景。
在CPU受限的邊緣機(jī)器人上進(jìn)行高效視覺-語(yǔ)言-動(dòng)作控制的框架Lite VLA:4位NF4量化+LoRA微調(diào),實(shí)現(xiàn)無GPU依賴的本地端到端推理與控制
LiteVLA 邊緣機(jī)器人 VLA 框架:4 位 NF4 量化 + LoRA 微調(diào),樹莓派 4 無 GPU 推理延遲 2 分鐘,內(nèi)存占用降 75%,適配服務(wù)機(jī)器人 / 災(zāi)后救援。
推動(dòng)視覺-語(yǔ)言-動(dòng)作VLA模型未來的10大開放挑戰(zhàn)與新興趨勢(shì):賦能具身智能落地
本文深入解析視覺 - 語(yǔ)言 - 動(dòng)作(VLA)模型的 10 大開放挑戰(zhàn)與新興技術(shù)趨勢(shì),涵蓋多模態(tài)感知、跨機(jī)器人泛化、安全保障等核心方向,為具身 AI 落地提供關(guān)鍵研究指引,助力機(jī)器人技術(shù)突破應(yīng)用瓶頸。
用于未知鉸接關(guān)節(jié)物體跟蹤與操縱的視覺-觸覺融合框架ArtReg:跟蹤誤差<1.5cm,復(fù)雜場(chǎng)景操作成功率穩(wěn)達(dá)90%+
視覺-觸覺鉸接物體操縱框架ArtReg:SE (3) 李群 UKF 跟蹤,未知旋轉(zhuǎn) / 移動(dòng)關(guān)節(jié)檢測(cè),跟蹤誤差 < 1.5cm,復(fù)雜場(chǎng)景操縱誤差 < 4cm,基準(zhǔn)精度超 SOTA 60%
VLA高效繼承VLM先驗(yàn)的關(guān)鍵方案:GrinningFace診斷基準(zhǔn)+協(xié)同訓(xùn)練,避免災(zāi)難性遺忘,適配通用的機(jī)器人控制。
VLA繼承VLM先驗(yàn)方案:GrinningFace診斷基準(zhǔn)+協(xié)同訓(xùn)練,表情符號(hào)識(shí)別率提升140%,真實(shí)機(jī)器人識(shí)別率86.7%,避免災(zāi)難性遺忘,適配通用機(jī)器人控制。
半分布式跨模態(tài)空地相對(duì)定位框架:厘米級(jí)定位精度、低帶寬需求與異構(gòu)適配能力,賦能GPS受限環(huán)境下的空地協(xié)同
半分布式跨模態(tài)空地相對(duì)定位框架:解耦式 SLAM + 雙階段優(yōu)化,通信帶寬≤0.3Mbps,平移誤差 0.004m,支持異構(gòu)傳感器,初始無公共視場(chǎng)也能穩(wěn)定工作,適配 GPS 受限協(xié)同場(chǎng)景。
全球首個(gè)語(yǔ)言指令機(jī)器人規(guī)劃的保形感知微調(diào)框架CoFineLLM:解決語(yǔ)言指令機(jī)器人規(guī)劃中LLM過度自信、預(yù)測(cè)集過大的痛點(diǎn),大幅降低人類干預(yù)率
CoFineLLM 語(yǔ)言指令機(jī)器人規(guī)劃框架:LLM 保形微調(diào) + 雙目標(biāo)損失函數(shù),幫助率降低 23.67%,OOD 場(chǎng)景干預(yù)率降 48.67%,覆蓋度穩(wěn)達(dá) 95%,適配自主規(guī)劃任務(wù)。
軟體機(jī)器人控制的快速學(xué)習(xí)策略框架:DISMECH隱式時(shí)間步長(zhǎng)+Delta曲率控制,訓(xùn)練速度提升22倍且精度無損
軟體機(jī)器人控制的快速學(xué)習(xí)策略框架:DISMECH 隱式模擬器 + Delta 自然曲率控制,訓(xùn)練速度提升 22 倍,接觸場(chǎng)景并行步長(zhǎng)提速 40 倍,sim-to-sim 精度無損,適配柔性操作 / 障礙物規(guī)避。
機(jī)器人操作框架PhysWorld:首次實(shí)現(xiàn)生成視頻到機(jī)器人動(dòng)作的物理落地,真實(shí)場(chǎng)景成功率82%
PhysWorld 機(jī)器人操作框架:視頻生成 + 物理世界建模 + 目標(biāo)中心殘差 RL,零樣本泛化,真實(shí)場(chǎng)景成功率 82%,適配擦白板 / 澆花 / 物品投放等任務(wù)。
工業(yè)零件抓取新方案:SAGRNet點(diǎn)云補(bǔ)全+骨架引導(dǎo),遮擋場(chǎng)景成功率達(dá)78%
工業(yè)零件抓取方法:SAGRNet 對(duì)稱感知點(diǎn)云補(bǔ)全 + 骨架引導(dǎo)姿態(tài)生成,遮擋場(chǎng)景抓取成功率 78%,點(diǎn)云補(bǔ)全 CD 降低 22.4%,適配管道零件 / 堆疊場(chǎng)景,工業(yè)自動(dòng)化專用。
5G+AI驅(qū)動(dòng)多機(jī)器人混合決策框架:Faster-RCNN-Pose統(tǒng)一感知, latency-aware協(xié)調(diào)實(shí)現(xiàn)高效協(xié)作
多機(jī)器人混合決策框架:Faster-RCNN-Pose 統(tǒng)一檢測(cè)與 6-DoF 姿態(tài)估計(jì),5G-MQTT 低延遲通信,latency-aware 協(xié)調(diào),動(dòng)態(tài)環(huán)境任務(wù)完成率 95%+,適配搜救 / 工業(yè) / 農(nóng)業(yè)場(chǎng)景。
無地圖非平整地形機(jī)器人路徑規(guī)劃算法A3D:SS-Map驅(qū)動(dòng)+穩(wěn)定性約束,導(dǎo)航魯棒性與效率雙突破
無地圖非平整地形機(jī)器人路徑規(guī)劃算法Agoraphilic-3D(A3D):基于 SS-Map 方形扇區(qū)圖、DBSCAN 遮擋濾波、穩(wěn)定性約束評(píng)估,路徑長(zhǎng)度比傳統(tǒng)算法短 15%-20%,目標(biāo)可達(dá)率 100%,適配搜救 / 農(nóng)業(yè) / 探索場(chǎng)景,實(shí)時(shí)性與魯棒性雙優(yōu)。
工業(yè)非視距場(chǎng)景定位突破:PosGNN多模態(tài)圖神經(jīng)網(wǎng)絡(luò)融合架構(gòu)的高精度實(shí)現(xiàn)與驗(yàn)證
該架構(gòu)為智能工廠 AGV 調(diào)度、工業(yè)機(jī)器人協(xié)同等場(chǎng)景提供了工程化的定位技術(shù)支撐,尤其在障礙物密集、錨點(diǎn)配置受限的復(fù)雜工業(yè)環(huán)境中,展現(xiàn)出顯著的性能優(yōu)勢(shì)與應(yīng)用價(jià)值。隨著模型輕量化與跨模態(tài)融合的持續(xù)優(yōu)化,其有望成為工業(yè)室內(nèi)定位的標(biāo)準(zhǔn)化技術(shù)方案。
多臂機(jī)器人調(diào)度框架ScheduleStream:GPU加速并行規(guī)劃,并行操作讓任務(wù)完成時(shí)間減半,真實(shí)場(chǎng)景成功率99%
多臂機(jī)器人調(diào)度框架ScheduleStream:GPU 加速并行規(guī)劃,并行操作讓任務(wù)完成時(shí)間減半,真實(shí)場(chǎng)景成功率99%,支持工業(yè)裝配/服務(wù)機(jī)器人多場(chǎng)景。
6軸機(jī)械臂低成本開源VLA方案EveryDayVLA
6軸機(jī)械臂低成本VLA方案EveryDayVLA:6-DOF機(jī)械臂$300,in-distribution成功率提升49%,OOD泛化超34%,實(shí)時(shí)響應(yīng)108Hz,開源數(shù)據(jù)集支持快速微調(diào)
多模態(tài)擴(kuò)散框架MDF:統(tǒng)一機(jī)器人策略/規(guī)劃/異常檢測(cè),讓機(jī)器人多模態(tài)操作更穩(wěn)、更靈活,完美適配接觸豐富的工業(yè)與服務(wù)機(jī)器人場(chǎng)景
多模態(tài)擴(kuò)散框架MDF:統(tǒng)一機(jī)器人策略/規(guī)劃/異常檢測(cè),模擬任務(wù)成功率達(dá)100%,真實(shí)場(chǎng)景超DP3 26%,噪聲下魯棒性領(lǐng)先70%。
跨模態(tài)機(jī)器人學(xué)習(xí)框架X-Diffusion:人類演示數(shù)據(jù)直接訓(xùn)練機(jī)器人擴(kuò)散策略,5大任務(wù)成功率提升16%,無需手動(dòng)篩選數(shù)據(jù)
跨模態(tài)機(jī)器人學(xué)習(xí)框架X-Diffusion:人類演示直接訓(xùn)練擴(kuò)散策略,帶噪動(dòng)作分類器避免動(dòng)作不可行,5任務(wù)成功率提升16%,無需手動(dòng)篩選數(shù)據(jù)。
用于神經(jīng)形態(tài)邊緣人工智能應(yīng)用的開源憶阻器接口和計(jì)算板OpenMENA:能耗低、部署易,機(jī)器人避障RMSE僅8.7
開源憶阻器接口和計(jì)算板OpenMENA:全棧開源、VIPI 權(quán)重編程、芯片在環(huán)微調(diào),邊緣 AI 能耗低,機(jī)器人避障 RMSE 8.7,數(shù)字分類準(zhǔn)確率提升 19%。
輕量化VLA模型Evo-1:0.77B參數(shù)碾壓3.5B模型!無機(jī)器人預(yù)訓(xùn)練也能SOTA,實(shí)時(shí)部署僅需2.3GB顯存
輕量化VLA模型Evo-1:0.77B參數(shù),無機(jī)器人預(yù)訓(xùn)練,Meta-World 80.6% SOTA,真實(shí)世界成功率78%,16.4Hz推理僅需2.3GB顯存。
軟物體交互仿真技術(shù)研究:高斯濺射+PhysTwin虛實(shí)轉(zhuǎn)換框架,策略評(píng)估相關(guān)性r>0.9,真實(shí)世界預(yù)測(cè) 100% 靠譜
高斯濺射虛實(shí)轉(zhuǎn)換機(jī)器人策略評(píng)估框架:PhysTwin軟物體數(shù)字孿生+雙對(duì)齊技術(shù),仿真與真實(shí)成功率相關(guān)性r>0.9,覆蓋玩具打包/繩子路由任務(wù),軟物體動(dòng)力學(xué)1:1還原,成本降低80%。
用于具身大語(yǔ)言模型的多智能體協(xié)作框架研究DR.WELL:基于符號(hào)世界模型的動(dòng)態(tài)推理與學(xué)習(xí),任務(wù)完成率100%,步驟減少30%
用于具身大語(yǔ)言模型的多智能體協(xié)作框架DR.WELL:兩階段協(xié)商+動(dòng)態(tài)符號(hào)世界模型,任務(wù)完成率100%,執(zhí)行步驟減少30%,適配自動(dòng)駕駛、機(jī)器人協(xié)作。
3D高斯指代分割R3DGS多視圖不跑偏的框架研究CaRF:相機(jī)感知+雙視圖監(jiān)督,mIoU最高提升16.8%, artifacts減少50%
增強(qiáng)多視角一致性的3D高斯指代分割框架CaRF:相機(jī)感知編碼+雙視圖監(jiān)督,多視圖一致性提升50%,Ref-LERF mIoU提升16.8%,適配具身智能和AR/VR。
人機(jī)交互中多用戶偏好沖突解決框架MUP-QBAF:利用定量雙極論證框架讓機(jī)器人“公平仲裁”,動(dòng)態(tài)適配偏好不跑偏
多用戶偏好沖突解決框架MUP-QBAF:量化雙極論證 + 動(dòng)態(tài)適應(yīng),老年人體弱評(píng)估場(chǎng)景決策準(zhǔn)確率 96.7%,透明可解釋,適配 HRI 多用戶沖突。
協(xié)作機(jī)器人進(jìn)行紙張包裝的統(tǒng)一控制策略START:讓紙張包裝成功率97%,不撕紙、無折皺
START 機(jī)器人紙張包裝框架:LLM 任務(wù)規(guī)劃 + 殘差 RL 力控,97.3% 成功率,PIS 0.96,適配倉(cāng)儲(chǔ)零售包裝,解決變形物體操作難題。
受限環(huán)境中多目標(biāo)順序和引導(dǎo)操作的重排規(guī)劃框架MO-SeGMan:動(dòng)作少50%,14任務(wù)成功率100%,雜亂場(chǎng)景秒適配
受限環(huán)境中多目標(biāo)順序和引導(dǎo)操作的重排規(guī)劃框架MO-SeGMan:多目標(biāo)優(yōu)化+SGFS算法,約束環(huán)境中14 項(xiàng)任務(wù)成功率100%,動(dòng)作減少50%,碾壓SeGMan等基線方法,雜亂場(chǎng)景秒適配。
