3、VLA(視覺-語言-動作模型(xíng ))是在具(jù )身智能研究中產(chǎn)生的一(yī )種多(duō )模態(tài)模型(xíng ),用于處理具(jù )身智能系統(tǒng)所(suǒ )面對語言條件機器人任務(wù)。谷歌 DeepMind 在 2023 年 7 月發(fā)布的 RT-2 被認(rèn)為是首個(gè ) VLA,而后這種概念在具(jù )身智能、機器人和智(zhì )駕(jià )領(lǐng)域中迅(xùn )速擴(kuò )散。
版權(quán)所有 ? 2025 青龍影院 保留所有權(quán)利