VLA模型的多模態(tài)對抗性攻擊框架VLA-Fool: 揭示跨模態(tài)對齊的脆弱性
摘要:視覺 - 語言 - 動作(VLA)模型在具身智能領(lǐng)域應(yīng)用廣泛,但現(xiàn)有研究多聚焦單模態(tài)對抗攻擊,忽視跨模態(tài)對齊的核心脆弱性,且缺乏對真實黑盒場景的覆蓋。VLA-Fool框架通過統(tǒng)一三大模態(tài)攻擊策略,首次系統(tǒng)性揭示了 VLA 模型在多模態(tài)擾動下的行為偏差,為構(gòu)建更穩(wěn)健的具身智能系統(tǒng)提供了重要參考。
參考原著:《When Alignment Fails: Multimodal Adversarial Attacks on Vision-Language-Action Models》
