IT之家 3 月 21 日消息,理想汽车本周早些时候发布了新一代自动驾驶技术 ——MindVLA 大模型,今日官方针对一些网友关心的问题进行了解答。
理想汽车称,MindVLA 大模型结合了视觉、语言和行为三大智能,开创了机器人大模型的新范式。用通俗易懂的语言来说,VLA 可以理解为看到、听到的同时也能做到。
理想汽车还透露,MindVLA 预计在今年 7 月份会和理想 i8 同时首发。
IT之家附《理想 MindVLA 答网友热门问题》全文内容如下:
01、理想汽车发布的 MindVLA 大模型是什么?
3 月 18 日,理想汽车在 NVIDIA GTC 2025 大会上推出了新一代自动驾驶技术 ——MindVLA 大模型。这个模型结合了视觉、语言和行为三大智能,开创了机器人大模型的新范式。用通俗易懂的语言来说,VLA 可以理解为看到、听到的同时也能做到。
对于用户来说,MindVLA 让车不仅仅是车,而是一个能听懂你说话、看懂你需求、帮你解决问题的“专职司机”。
对汽车行业来说,MindVLA 就像当年的 iPhone 4 一样,将重新定义未来的出行方式。而在人工智能领域,MindVLA 的到来,将使车成为连接物理世界和数字世界的桥梁。这种技术可能会应用到更多领域,进而改变我们的生活。
总之,MindVLA 不仅让车变得更智能,还让我们离未来的智能生活更近了一步!
02、MindVLA 什么时候能够上车?
MindVLA 预计在今年 7 月份会和理想 i8 同时首发,具体信息以官方公布为准。
03、什么车型才有 MindVLA?现款车型支持 MindVLA 大模型吗?
配备 AD Max 系统的车辆可以提供高级辅助驾驶和全场景 NOA 的功能,除了能够运行目前的端到端 + VLM 大模型之外,也将支持今年后续会推出的更强大的 MindVLA 大模型。
04、MindVLA 大模型和现在的端到端 + VLM 大模型有什么区别?
首先,从技术层面来讲,MindVLA 绝非是「端到端 + VLM」的简单升级。其将空间智能、语言智能和行为智能统一在一个模型里。有了 MindVLA,自动驾驶将能感知、思考和适应环境。
其次,按能力表现来看,MindVLA 模型加持下的汽车就像一个助手,能与用户沟通、理解用户意图,帮用户做更多事情。比如,它可以在陌生车库漫游找车位直至自主完成泊车;可以按照驾驶员的“开快点、开慢点、左拐、右拐”等语音指令进行行动;可以在你发给它地标照片后,按图索骥找到你等等。总结来说,有 MindVLA 赋能的汽车是将是一个能听得懂语音指令、看得见陌生地标、陌生地库找得到车位的专职司机。
05、MindVLA 都要来了,端到端和 VLM 还会维持目前的更新速度吗?
端到端与 VLM 模型将保持高速迭代,理想自动驾驶团队将推进端到端 + VLM 的持续提升。
06、MindVLA 和 MindGPT 有关系吗?Demo 里演示的语音输入,是否意味着智舱智驾的融合?
MindVLA 是理想汽车下一代自动驾驶核心架构,使用了 MindGPT 作为语言基座,demo 中的语音通过座舱的 ASR 后变成文字,输入给 MindVLA。这一设计继承自 MindGPT 在语言理解与交互领域的优势能力(如语义解析、逻辑推理等),并针对自动驾驶场景进行了专项优化。
这体现了智舱与智驾在功能层的协同创新,而非系统层的完全融合。未来,我们将持续探索多模态交互与驾驶决策的深度耦合,为用户提供更自然的“人车共驾”体验。
07、MindVLA 千人团 / 万人团什么时候内测?
感谢关注,具体内测时间以官方公布为准。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。