近期,理想汽车在智能驾驶技术方面迈出了重要一步,据多方媒体报道,该公司正全力研发一款名为VLA(视觉-语言-动作)的下一代智能驾驶大模型。据悉,该项目的目标是在今年下半年实现实质性落地。
早在去年二季度,理想汽车就已在财报电话会议上透露了启动端到端VLA模型研究的消息。该项目的核心在于将两个独立模型融合,进而将多模态大模型的能力内化为端到端智能驾驶大模型的一部分。
那么,这款VLA智能驾驶大模型与以往的智能驾驶系统究竟有何不同呢?关键在于,VLA大模型结合了端到端技术和VLM(视觉语言)多模态模型的优点,能显著提升智能驾驶系统对复杂驾驶场景的理解能力,从而提高智能驾驶的精确度和可靠性。
与端到端大模型相比,VLM模型在理解和解析图像及场景方面展现出了更强的能力。然而,端到端大模型也面临一些挑战,例如决策过程难以解释,以及在处理某些特定场景时存在局限。VLA大模型的出现,正是为了解决这些问题。
当前,VLA技术已成为智能驾驶领域的一大竞争焦点。除了理想汽车,吉利汽车和元戎启行等企业也在积极推进VLA技术的落地应用。然而,VLA技术的落地并非易事,除了模型研发需要大量时间外,现有市场上的芯片性能普遍难以支持其运行。
幸运的是,业界巨头英伟达即将量产的Thor系列芯片有望为这一难题提供解决方案。Thor系列芯片的高性能表现,或许能为VLA技术的广泛应用铺平道路。
随着智能驾驶技术的不断发展,VLA大模型有望成为未来智能驾驶领域的核心驱动力。理想汽车等企业的积极努力,无疑将推动这一技术更快走向成熟,为人们的出行带来更加安全、便捷的智能驾驶体验。