设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

理想汽车发布下一代自动驾驶架构 MindVLA,李想将其比作 iPhone 4

2025/3/18 11:22:07 来源:IT之家 作者:汪淼 责编:汪淼

IT之家 3 月 18 日消息,在今日的 NVIDIA GTC 2025 上,理想汽车发布了下一代自动驾驶架构 MindVLA

图片

理想汽车自动驾驶技术研发负责人贾鹏表示,理想自研 VLA 模型 —— MindVLA 将把汽车从单纯的运输工具转变为“贴心的专职司机”,它能听得懂、看得见、找得到。“我们希望 MindVLA 能为汽车赋予类似人类的认知和适应能力,将其转变为能够思考的智能体。”

理想汽车 CEO 李想介绍称:“MindVLA 是一个视觉-语言-行为大模型,但我们更愿意将其称为‘机器人大模型’,它将空间智能、语言智能和行为智能统一在一个模型里,让自动驾驶拥有感知、思考和适应环境的能力,是我们通往 L4 路上最重要的一步。”

李想还表示:“MindVLA 能为自动驾驶赋予类似人类的驾驶能力,就像 iPhone 4 重新定义了手机,MindVLA 也将重新定义自动驾驶。”

理想汽车官方介绍称,MindVLA 将为用户带来全新的产品形态和产品体验,有 MindVLA 赋能的汽车是听得懂、看得见、找得到的专职司机。

“听得懂”是用户可以通过语音指令改变车辆的路线和行为,例如用户在陌生园区寻找超市,只需要通过理想同学对车辆说:“带我去找超市”,车辆将在没有导航信息的情况下,自主漫游找到目的地;车辆行驶过程中,用户还可以跟理想同学说:“开太快了”“应该走左边这条路”等,MindVLA 能够理解并执行这些指令。

“看得见”是指 MindVLA 具备强大的通识能力,不仅能够认识星巴克、肯德基等不同的商店招牌,当用户在陌生地点找不到车辆时,可以拍一张附近环境的照片发送给车辆,拥有 MindVLA 赋能的车辆能够搜寻照片中的位置,并自动找到用户。

“找得到”意味着车辆可以自主地在地库、园区和公共道路上漫游,其中典型应用场景是用户在商场地库找不到车位时,可以跟车辆说:“去找个车位停好”,车辆就会利用强大的空间推理能力自主寻找车位,即便遇到死胡同,车辆也会自如地倒车,重新寻找合适的车位停下,整个过程不依赖地图或导航信息,完全依赖 MindVLA 的空间理解和逻辑推理能力。

除了合作伙伴的演讲,北京时间 3 月 19 日凌晨 1:00,英伟达 CEO 黄仁勋将发表主题演讲,包括代理式 AI、机器人、加速计算等领域的发展趋势,IT之家届时将第一时间跟进最新消息。

英伟达 GTC 2025 大会专题

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关文章

软媒旗下网站: IT之家 最会买 - 返利返现优惠券 iPhone之家 Win7之家 Win10之家 Win11之家

软媒旗下软件: 软媒手机APP应用 魔方 最会买 要知