理想智驾从此站起来了?

0

对于理想AD Max用户来说,今天绝对是一个值得庆祝的日子。

理想汽车在今天正式召开了智能驾驶夏季发布会,主要内容包含了:

– 基于端到端模型、VLM视觉语言模型和世界模型的全新自动驾驶技术架构;

– 将于7月内推送的全自动AES和全方位低速AEB。

其中,端到端模型、VLM视觉语言模型和世界模型是理想AD Max的全新技术,这项技术能够帮助理想汽车智能驾驶摆脱对先验信息的依赖,在全国范围内实现有导航覆盖即可使用NOA。

而全自动AES和全方位低速AEB,则能够让理想AD Max在更多场景下实现更好的主动安全能力。

下面我们一项一项来看。

首个双系统架构方案

大多数人今天关注的重点是理想的全新的双系统技术架构,早在近一个月前的「2024中国汽车重庆论坛」上,李想就分享了这套理想汽车的最新技术架构。

理想团队在一本书《思考,快与慢》中得到启示:

我们人类的大脑日常在工作的时候,分为系统一和系统二。系统一来处理一些需要直觉和快速响应的事情。系统二处理比较复杂的逻辑推演工作。

代入到人类的驾驶行为,日常近95%的驾驶任务是不需要推演的,开车时脑子里甚至还可以想其他事情,这时候大脑并不是没有工作,而是以一种低能耗的方式在工作。

但是当我们到了复杂路况时,比如遇到复杂的路口、多车混行的路段,我们的大脑就会调用系统二来工作,用它来处理比较复杂的逻辑推演的能力,虽然它对大脑消耗比较大,但我们不会一直以系统二的方式开车。

自动驾驶如果以人类的方式来开车,那么系统一和系统二对应的是什么?

理想汽车认为,现在行业在研究的端到端技术正是自动驾驶需要的系统一,它的效率很高,善于处理简单任务,是人类基于经验和习惯形成的直觉,足以应对驾驶车辆时95%的常规场景。

系统二则是理想率先基于 Orin-X 部署的 VLM 视觉语言模型,它更擅长逻辑推理、复杂分析和计算能力,在驾驶车辆时用于解决复杂甚至未知的交通场景,占日常驾驶的约5%。

系统一和系统二的相互配合,分别确保大部分场景下的高效率和少数场景下的高上限,成为人类认知、理解世界并做出决策的基础。

系统一,即端到端

理想汽车的端到端输入主要由摄像头和激光雷达构成,多传感器特征经过CNN主干网络的提取、融合,投影至BEV空间。

为了提升模型的表征能力,理想汽车加入了记忆模块,具备时间和空间的记忆能力。

在模型的输入中,理想汽车还加入了汽车的状态信息和导航信息,经过 Transformer模型的编码,输出感知任务,包含了动态障碍物、道路结构和通用障碍物等等,并规划行车轨迹。

输入感知信息,输出规控轨迹,这是理想AD的系统一,端到端模型。

更擅长「读图」的VLM模型

VLM 视觉语言模型,通俗地说,这是一个擅长解读照片的网络。

我们都知道,自动驾驶感知主要输入的是图片,这是最重要的信息,但如何让系统读懂信息,这是最关键的一步。

VLM 模型相对来说更擅长这些场景理解,能识别和描述道路环境、交通标志、动态交通参与者等等。通过不断的训练,VLM能够进行自主推演。例如交警的手势,大多数模型架构是无法解决「读懂」的,甚至人的大脑都需要推理,但是VLM可以承担这部分任务。

这就是为什么李想说,VLM是端到端很好的补充。

理想汽车的VLM视觉语言模型参数量达到22亿,对物理世界的复杂交通环境具有强大的理解能力,许多场景即便是第一次经历,也能够很好地化解。

再举个例子,VLM模型可以理解公交车道、潮汐车道和分时段限行等复杂的交通规则,在驾驶中作出合理决策。

可以说,VLM给端到端在给端到端这种不可加规则的模型进行了很好的兜底。

但是,VLM本身也是黑盒,理想为了验证双系统的安全性,用 Diffusion Transformer 的方式来构建一个重要的、小型的世界模型,拿到这个世界模型,让车在里面考试。

理想汽车结合端到端模型和VLM视觉语言模型,成为了首个在车端部署双系统的方案,也首次将VLM视觉语言模型成功部署在车端芯片(Orin-X)上。

主动安全

看完了发布会,我对理想智驾的印象只有一个字,那就是卷。不仅仅是城区NOA的前瞻研发和工程化落地,在主动安全上,理想也把场景和功能类型做到了非常丰富和完备。

理想的主动安全包含了四大能力,分别是复杂路口的AEB、夜间弱光AEB、全自动AES和全方位低速AEB。

我们分别来看这四大场景的能力和价值。

复杂路口指的是当我们在人车混行的转弯行驶时,尤其是转弯时,驾驶员的视线是存在盲区的,这时候主动AEB就能够帮助驾驶员规避风险。

尤其是横穿的儿童,这是典型的高危场景。

夜间弱光环境下,驾驶员视线会受到严重干扰,尤其是在闪着灯的龙门架下,更是一个难解的场景。理想这次也针对夜间暗光环境做了升级,确保功能极限够高。

全自动AES(自动紧急转向)指的是,在车辆行驶速度较快时,留给主动安全系统的反应时间极短,部分情况下即使触发AEB,车辆全力制动仍无法及时刹停。这个时候,AES功能将被及时触发,无需人为参与转向操作,自动紧急转向,避让前方目标,从而避免碰撞的发生。

最后一项,全方位全方位低速AE则针对泊车和低速行车场景。

在我们日常泊车时,停车场可能存在一些低矮的障碍物,甚至会出现儿童,全方位低速AEB能够识别前向、后向和侧向的碰撞风险,及时紧急制动,避免碰撞发生。

以上这些功能,都会在7月推送给用户。

在这里理想汽车也分享了一组数据,在202年上半年,理想汽车AD Max主动安全系统已经显著降低了人类驾驶事故率:人类驾驶事故率降低30%、人类驾驶事故避免36万起、AEB误触发率每30万公里小于1次。

写在最后

今天的发布会全程围绕智驾,并且在看完后,我相信大多数人都有两点感触。

第一,过去我们国内OEM与智驾供应商提出的技术,都是特斯拉在AI DAY上和CVPR上已发布的技术。

在智驾前瞻技术上,我们一直是跟随的角色,但是理想今天的技术,让行业获得了久违的新鲜感,我们要鼓励前瞻技术的探索和工程落地。

第二,我们的新势力一直在卷主动安全,这是最不怕卷的领域,消费者需要更好、更强的主动安全能力。

什么是卷出价值?这就是最好的诠释。

 

Comments are closed.