​英伟达发布开放式推理 AI 助力自动驾驶技术迈向新台阶

AI行业资讯10小时前发布本文共计763个字,预计阅读时长3分钟。 墨白
3.2K 0 0

在近期于圣地亚哥举行的 NeurIPS 大会上,英伟达推出了其最新自动驾驶 AI 模型 Alpamayo-R1(简称AR1),旨在加速推动更广泛规模的无人驾驶汽车落地。据英伟达介绍,AR1是全球首个面向自动驾驶行业的开放式推理视觉语言行动(VLA)模型,具备同步处理文本与图像的能力,可将车辆传感器所“看到”的信息转化为自然语言描述。

AR1 融合了推理链 AI 与路径规划技术,显著增强了在复杂情境下的处理能力。相比以往的自动驾驶方案,它通过分析场景、评估各项可能选项,模拟人类的决策过程,从而做出驾驶判断。英伟达指出,这一能力对实现四级自动驾驶至关重要——该级别被汽车工程师协会定义为在特定条件下车辆可完全自主控制行驶。

在随发布同步更新的博客中,英伟达应用深度学习研究副总裁布莱恩・卡坦扎罗以实例说明了 AR1 的工作机制。他表示,在行经行人密集区域或自行车道附近时,AR1 可运用推理链分析路径信息,做出更加合理的决策,例如避开自行车道或为可能横穿道路的行人提前停车。这种基于推理的思考模式,也让工程师能够更清晰地理解 AI 决策背后的逻辑,有助于进一步提升车辆的安全性。

AR1 模型基于英伟达今年稍早发布的 Cosmos Reason 构建,并以开放获取的形式提供给研究社群。研究人员可针对非商业用途对模型进行定制,开展基准测试或开发自动驾驶系统。目前,AR1 已在 GitHub 和 Hugging Face 平台上发布。卡坦扎罗表示,通过后续的强化学习训练,模型的推理能力已获得显著提升,研究人员的反馈也证实了其“明显改进”的效果。

重点整理

  • 🌟 AR1 是首个行业级开放式推理 VLA 模型,可同时处理文本与图像信息。
  • 🚗 该模型模拟人类推理机制,提升自动驾驶在复杂场景下的应对能力。
  • 🔍 模型已在 GitHub 和 Hugging Face 开放,供研究人员进行非商业用途的定制与实验。
© 版权声明

相关文章