小米YU7已经发布,雷军在微博上预热YU7的辅助驾驶时,重点提到:小米YU7出厂即搭载1000万Clips版本的辅助驾驶。
在小米之前,理想、小鹏、吉利等车企纷纷宣称数据量达到1000万Clips,仿佛预示着辅助驾驶的竞争已进入了一个全新阶段。
那么,Clips到底是什么,它对辅助驾驶来说又意味着什么?
什么是Clips?
简单地说,Clips是车辆在真实道路中采集的驾驶数据片段,通常约30秒,它包含车辆摄像头等各种传感器采集到的驾驶数据,记录了车面对不同场景做出不同反应的全过程。
如果把自动驾驶比作一位新手司机,Clips就是教科书、题库和错题集的结合体。数量越多、覆盖场景越丰富,模型就越有“活人感”。
我们都说,在智能化时代,数据是基础,也是最重要的。那么,学习素材的质量和数量,就决定了它的能力上限。
主流玩家实力一览:
越来越多的车企会将“1000万Clips”作为其宣传辅助驾驶数据训练量的标准。
千万级的Clips,意味着覆盖了海量、多样化的驾驶片段,各类复杂的道路场景,为模型提供了更全面的学习教材,从而实现更精准的判断。
可以看出,辅助驾驶正从“感知能力的比拼”迈向“认知水平的较量”,比的就是谁让AI“看得多、学得全”。
数据越多,辅助驾驶越聪明?
数据规模越大,辅助驾驶的表现就会越好吗?
其实这不是绝对的,Clips可以类比为芯片的计算单元,数量越多,算力越强,但算力只是基础,真正决定体验的,还是算法和数据。
数据训练的关键在于覆盖维度与数据质量。简单来说,不是把数据全丢进去就行,而是要“喂”给算法高质量、多场景的数据,才能训练出聪明好用的系统。
理想汽车从超百万用户的驾驶数据中,按照顺畅度、操作规范性等标准筛选,最终只保留5%的高质量片段用于模型训练。因为这样筛出来的数据更“干净”,更贴近真实场景,对算法提升也更有帮助。
Clips数量决定了系统能跑多复杂的算法,但能不能跑得好,还得看算法有没有设计到位、数据有没有训练到位。比的不应该是“谁芯片多”,而是“谁算法强、数据准”。
特斯拉打造了 Dojo 超级计算机,用于处理全球车主上传的视频数据,规模已达到100EFLOPS;小鹏汽车也自建了扶摇超算中心,配备超2万张GPU卡,每天可处理200万Clips,其目标是 2025年算力达到 10EFLOPS 以上。
Clips量越大,就说明车企的训练数据规模越大,而超算中心的算力越大,就说明车企的处理数据能力越强。
这就是为什么大家都在卷“超算”和“训练数据量”。
写在最后
马斯克曾说:“只有训练到 1000 万个 clips,系统才会有难以置信的表现提升。”
可以见得,训练数据量达1000万Clips可以认作是辅助驾驶变得更强、更拟人的“拐点”。
这也是为什么今天的辅助驾驶,不再是简单“堆芯片”,而是围绕数据质量、算力平台展开全面竞争。
当然,1000万Clips只是辅助驾驶征途中的一个节点,并不能将它和最终表现直接挂钩。数据的质量,车企能否用好,都会直接影响辅助驾驶最终表现。