【国信证券】智能驾驶行业专题:算法篇,AI赋能背景下看汽车智能驾驶算法的迭代.pdf

2023-08-07
54页
4MB

数据融合和神经网络构建智能驾驶方案底层


目前自动驾驶行业网络基础架构普遍为 Input -> backbone -> neck ->head->output。以特斯拉为例,其自动驾驶理念是通过深度学习模型建立仿照人脑基于视觉的计算机神经网络系统,将摄像头的图像数据经过融合、特征提取、识别、决策几步处理成鸟瞰图模式或者 3D 空间占用情况,用于后续的路径规划,各家处理顺序有所不同。具体而言,特斯拉自主构建的 HydraNet 网络在input 端输入摄像头的原始图像数据,通过 backbone 层的神经网络架构提取图像特征数据,将特征输入 neck 结合后续路径规划等任务做调整,再对特征数据赋予时间信息,进一步实现对目标不同时间信息的融合,并将结果传向各个heads,完成后续任务。整个算法的核心在于特征提取及数据融合,高效的数据处理和有效的感知图层构建是自动驾驶落地的基础。特斯拉以视觉图像数据为主,其他车企也会选择将毫米波雷达、超声波雷达、激光雷达等多传感器数据加以综合,并在特征提取、识别、融合、决策等数据处理顺序上存在差异,以此可以将数据融合分为前融合、后融合、特征级融合三种模式。


特征级融合集低数据损失与低算力消耗优势于一体


1)前融合:传感器数据融合,计算量大,目前业内应用并不多。前融合,也称为数据级融合,指的是将传感器的观测数据融合,然后再从融合数据中提取特征向量进行判断识别。其特点在于只有一个感知的算法,对融合后的多维综合数据进行感知。


前融合的优势是不存在数据丢失的问题,得到的结果也较为准确,前融合属于底层数据融合。将多个传感器的原始观测数据(raw data)直接进行融合,比如把激光雷达的点云数据和摄像头的像素级数据进行融合,数据的损失比较少;其挑战主要在于计算量大,对算力和融合策略要求较高,由于视觉数据是2D 图像空间,激光雷达点云是 3D 空间,在进行融合时,要么在图像空间里把点云放进去,给图像提供深度信息,要么在点云坐标系里,通过给点云染色或做特征渲染,让点云具有更丰富的语义信息。


2)后融合:各传感器输出结果在决策层融合,为智能驾驶早期阶段主流方案。后融合,也称为目标级融合、决策级融合,指的是每个传感器各自独立处理生成的目标数据,每个传感器都有自己独立的感知算法,比如视觉感知算法、激光雷达感知算法、毫米波雷达感知算法等,从而各自输出带有传感器自身属性的结果,并在决策层由主处理器进行数据融合,这也是当前的主流方案。后融合的优势在于 1)不同的传感器都独立进行目标识别,解耦性好,且各传感器可以互为冗余备份;2)对于主机厂来说,后融合算法比较简单,每种传感器的识别结果输入到融合模块,融合模块对各传感器在不同场景下的识别结果,设置不同的置信度,最终根据融合策略进行决策;3)算力要求更低,参考汽车之心数据,后融合策略对车端算力要求在 100TOPS 以内,前融合却需要500-1000TOPS算力。后融合的缺点在于在后融合策略下,低置信度信息会被过滤掉,原始数据丢失。


3)特征级融合:相比后融合数据损失少,相比前融合算力消耗少,在BEV空间中使用更大。 特征级融合,也称为中间层次级融合,指的是先将各个传感器通过神经网络模型提取中间层特征(即有效特征),再对多种传感器的有效特征进行融合,从而更有可能得到最佳推理。特征级融合的好处在于,相较于后融合,数据损失少、准确度更高,相较于前融合,算力消耗较少,参考汽车之心数据,特征级融合对车端算力需求大约在 300-400TOPS 之间。


前融合算法算力要求高、目前更多流行于学术界,后融合算法会产生严重的原始数据丢失问题,特征级融合算法兼具数据损失少、算力消耗少的两大优势,被提出后广泛应用于车企及供应商中;特斯拉采用纯视觉方案通过特征级融合实现算力和推理结果的最佳权衡。国内小鹏、理想、华为等同样选择特征级融合方案,差异在于国内车企普遍采用雷达、摄像头等多种类传感器配置,特征级融合还是基于视觉传感器数据,理想等公司另外提出将传感器的特征级融合结果和激光雷达数据再次进行前融合来增强整体感知效果。


自动驾驶的感知层在输入摄像头等原始数据后,其处理包括融合、特征提取、识别、决策几个步骤,车企根据自身的传感器配置选择数据融合方案,并选择不同的神经网络做图像的特征提取、数据融合等处理过程,根据内部结构的不同,神经网络模型一般可分为 DNN、CNN、RNN、Transformer 等多种,不同的神经网络结构会在处理过程中提供不同的助力效果。


神经网络模型从 CNN 到 Transformer,效率提升


DNN(深度神经网络):全连接神经网络,存在效率低下等问题


DNN 的基础是神经元,神经网络由一个个神经元组合而成,其作用就是接收n个输入,然后给出一个输出,具体计算过程根据需要进行设计。在输入层和输出层中间加入隐藏层,即构成 DNN(深度神经网络),隐藏层是输入层和输出层之间众多神经元和链接组成的各个层面,如果有多个隐藏层,则意味着多个激活函数,隐藏层的层数问题根据实际问题来设定,设定过多会造成计算资源浪费,设定过少会降低结果准确率,下图中箭头的方向代表前向传播的方向,每一个神经元得到的结果会传给下一层所有的神经元,这也是 DNN 也被称为全连接神经网络的原因,一层一层传递得出最终结果。 DNN(深度神经网络)的问题在于参数过多效率低下,训练困难;大量的参数也会很快导致网络过拟合,而自动驾驶感知层输入数据较多,CNN(卷积神经网络)可有效解决以上问题。


CNN 卷积神经网络:对局部感知,再在更高层将局部信息综合得到全局信息,适用于图像识别


卷积神经网络(Convolution Neural Network,CNN)是一种前馈神经网络,其本质是一个多层感知机,CNN 成功推出的原因在于“将复杂问题简化”,把大量参数降维成少量参数,再做处理,其通过卷积层和池化层所采用的局部连接和权值共享的方式来降维:一方面减少了权值的数量使得网络易于优化;另一方面降低了模型的复杂度、减小了过拟合的风险,适用于图像识别。


CNN 分类图像,一般需要卷积操作、池化操作、全连接操作来进行预测识别。1)卷积层:卷积层的主要作用是对输入图像或者特征图进行特征提取。卷积核相当于一个滑动参数窗口,在输入图像或者特征图上实现固定步长且有规则滑动,每滑动一次,与输入图像或者特征图对应区域进行相应的计算,获取代表局部特征信息的值。


2)池化层:池化层作用是在保留重要特征的情况下,降低数据处理维度。池化层主要操作是通过对上一层输出特征图进行采样操作。一般的采样方式有三种:最大池化、平均池化和混合池化。


3)全连接层:通常位于网络的底部,常用于分类任务。在分类网络中,全连接层可以为输出结果的概率。


若只通过 DNN 全连接层进行特征提取,会增加网络的复杂度并且计算复杂度高,相比之下 CNN 卷积神经网络是先对局部进行感知,然后在更高层将局部信息综合得到全局信息,兼具局部连接和权重分享的特点:1)局部连接:卷积运算使用卷积核通过滑动窗口将输入特征映射连接到神经元中,与全连接相比,该方法有效地降低了网络复杂度,这提高了在线学习数据特征的性能;2)权重分享:对于局部连接处理输入特征图的整个过程中,所使用的卷积核为同一个卷积核,因此计算所需要的权重矩阵为同一个,即权值共享。


CNN 卷积神经网络之所以适合图像识别,主要在于CNN 模型限制参数个数并挖掘局部结构的特点。其缺陷在于一方面,CNN 无法对相对空间信息进行编码,仅关注于检测某些特征,而不考虑它们之间的相对位置;另一份,池化层会将局部特征压缩为单一的值,这些值无法完全代表原始特征的信息,导致可能丢失一些有价值的特征信息。


Transformer:在并行计算、保留位置信息、捕捉远距离特征等方面表现优异


Transformer 是一种基于注意力机制(Attention Mechanism)的神经网络模型,由谷歌 2017 年论文《Attention is All You Need》提出,相比RNN 的优势在于可并行计算、并且能够处理长序列的输入,相比 CNN 的优势在于保留了位置信息、且解决远距离特征依赖问题。因此,Transformer 模型成了自然语言处理领域中最流行的模型之一。 Attention 机制源自于人类视觉注意力机制:将有限的注意力集中在重点信息上,从关注全部到关注重点,从而节省资源,快速获得最有效的信息。Attention是一种权重参数的分配机制,目标是帮助模型捕捉重要信息,本质是一种带权求和。


Encoder 是对输入句子 Source X1、X2、X3、X4 进行编码,将输入句子通过非线性变换转化为中间语义 Ci,对于解码器 Decoder 来说,其任务是根据句子Source的中间语义表示 Ci 和之前已经生成的历史信息来生成i 时刻要生成的Yi。


传统的 Attention 机制发生在 Target 的元素和 Source 中的所有元素之间,SelfAttention(自注意力机制)不是输入语句和输出语句之间的Attention机制,而是输入语句内部元素之间或者输出语句内部元素之间发生的Attention机制,简单理解,如下图所示,对于每一个输入向量 a,经过蓝色部分Self Attention(自注意力机制)之后都输出一个向量 b,这个向量b 是考虑了所有的输入向量对 a1 产生的影响才得到的,这里有四个词向量 a 对应就会输出四个向量b。


Self Attention(自注意力机制)的矩阵形式如下图,具体计算过程为:1)把4个输入 a 拼成一个矩阵 I,这个矩阵有 4 个 column,也就是a1 到a4,I 乘上相应的权重矩阵 W,得到相应的矩阵 Q、K、V,分别表示query,key 和value;2)利用得到的 Q 和 K 计算每两个输入向量之间的相关性,也就是计算attention的值α,通常采用点乘的方式;3)矩阵 A 中的每一个值记录了对应的两个输入向量的Attention 的大小α,A'是经过 softmax 归一化后的矩阵。再利用得到的A'和V,计算每个输入向量 a 对应的 self-attention 层的输出向量b 组成的矩阵O。


Multi-Head Attention(多头注意力机制)是在 self-attention 的基础之上进行了完善,使用多组得到多组 Query,Keys,Values,然后每组分别计算得到一个Z矩阵,将得到的多个 Z 矩阵进行拼接,最后将拼接后的矩阵再乘一个权重矩阵W,得到 Z。Multi-Head Attention(多头注意力机制)的思想类似于卷积神经网络中的 filter,可以从不同的角度提取图像的特征,从而得到多个特征表达。


Transformer 是一个基于 Encoder-Decoder 框架的模型,具备可并行计算、可保留位置信息、可捕获远距离特征等多重优势。1)并行计算:Transformer不存在网络中间状态不同时间输入的依赖关系,可以自由进行并行计算;2)位置信息:Transformer 使用位置函数对位置编码,因而保留了位置信息;3)远距离特征:自注意力机制允许模型为序列中的每个位置分配不同的权重,以便模型可以更好捕捉序列中的关系,可捕获远距离特征。


对于自动驾驶而言,传统 CNN 图像数据融合基于局部特征执行,局部感知能力强,感知区域随层数增加逐步扩大,但可能忽略图像间依存关系;而Transformer从输入开始的每一层结构都可以看到所有信息,同时可以利用自注意力机制特性对全局信息加以感知,感知数据处理更灵活,但是模型表现提升需要一定数据规模,同时全局计算复杂度高。 目前特斯拉等多家车企选择 Transformer 与 CNN 并存模式,结合两种神经网络架构优点,Transformer 技术提升 CNN 架构下感知系统环境语义的理解深度,CNN架构节省 Transformer 的算力损耗,长期看这一多神经网络架构有望加速AI大模型及高阶自动驾驶的量产上车。


法规落地,高阶智能驾驶有望加速上车


各国政策在不断放开对自动驾驶的限制。智能驾驶技术发展走在政策法规限制之前,高阶智能驾驶技术持续进阶,然而事故权责认定、准入条件等领域立法空白影响车企上车决策。2022 年 7 月,深圳市发布的《深圳经济特区智能网联汽车管理条例》,首次规范智能网联汽车智能驾驶的定义、市场准入条件及责任认定等内容,有望为其他地区提供示范效应,加速 L3 智能驾驶的落地。2023 年6月21日,工信部在国务院政策例行吹风会上透露,将启动智能网联汽车准入和上路通行试点,组织开展城市级“车路云一体化”示范应用,支持有条件的智能驾驶,这里面讲的是 L3 级,及更高级别的智能驾驶功能商业化应用。而在此之前,美国国家航空运输安全管理局在2022年3月提出全智能驾驶汽车不需要再配备传统的方向盘、制动或油门踏板等装置。特斯拉 FSD 为代表的高阶智能驾驶在技术完善后,上车有望加速。


特斯拉带动智能驾驶行业技术进阶


特斯拉 FSD 算法持续升级(2021 年 BEV+Transformer—2022 年引入OccupancyNetwork—2023 年或引入端到端融合大模型),引领行业发展。智能驾驶方案存在较高技术壁垒,从硬件层面减少雷达配置、到软件层面提供BEV、Transformer、Occupancy network 等大模型实现重感知方案,均是特斯拉走在行业前列。2023年后特斯拉推出 FSD V12 的端到端模式,有望带动行业进入新一轮快速迭代周期,智能驾驶方案渗透率有望持续提升。


技术层面:软硬件持续迭代,大模型、端到端引领行业


特斯拉智能驾驶方案可以简单分为四个阶段。2014 年10 月-2016 年7 月,特斯拉与 Mobileye 深度合作,当时的 Hardware 1.0 硬件配置为1 个前置摄像头+1个毫米波雷达+12 个中程超声波雷达,选用 Mobileye EyeQ3 芯片,软件方案为Mobileye黑盒模式。至 2016 年 10 月,特斯拉开始自研软硬件系统,发布第二代硬件Hardware 2.0,配 8 个摄像头+12 个远程超声波雷达+1 个前置毫米波雷达,选用英伟达Tegra Parker芯片,芯片算力从Mobileye EyeQ3的0.256TOPS提升到NIVIDTegra Parker 的 1TOPS,最关键在于英伟达芯片+安森美等传感器脱离mobileye的软硬件一体模式;软件上选用行业内通用的卷积神经网络实现2D 图像检测,但是 2016 年 10 月更新硬件 HW2.0 版本,直到 2017 年1 月Tesla 配备HW 2.0的车辆补齐 AEB、防碰撞预警、车道保持、自适应巡航等多种Autopilot 功能;2019年-2021 年 5 月,特斯拉升级 Hardware3.0 硬件配置,传感器不变,搭载2个自研 FSD 芯片,同时逐步在软件算法引入 BEV+Transformer+Occupancy network等模型,技术层面引领行业发展。2021 年 5 月起,特斯拉转向纯视觉方案,逐步减少超声波雷达及毫米波雷达配置,芯片配置保持不变。2023 年后,特斯拉即将发布新一代端到端大模型及新一代硬件配置 Hardware 4.0,智能驾驶技术路线进入新时代。


2016-2019 年,起步智能驾驶全栈自研


2016 年是特斯拉智能驾驶全栈自研的起点。2016 年之前,特斯拉与Mobileye深度合作,采用其软硬件一体的智能驾驶解决方案。2016 年10 月,特斯拉开始自研智能驾驶技术方案,硬件选择英伟达的 Tegra Parker 芯片,相比mobileye合作的 HW1.0 增加 7 个摄像头(8 个摄像头+12 个超声波雷达+1 个前置雷达);软件方面用行业内通用的卷积神经网络实现 2D 图像检测,数据采用人工标注,软件算法工作网络结构为 Input→backbone→neck→head→Output,单head 模式限制多任务并行。 2018-2019 年,特斯拉构建多任务学习网络 HydraNet,在input 端输入摄像头的原始图像数据,在主干网络使用卷积神经网络模型regnet 进行特征的识别提取,对特征数据赋予时间信息,进一步实现对不同时间目标的融合。HydraNet设置多个 head 同时处理多项任务,比如同时检测车道线及红绿灯等;主干网络提取的特征在多个 head 任务中共享,减少重复计算;同时任务间又相对独立,存在较低耦合,不会互受影响。


2019-2022 年,传统分解式模型,感知+规控创新引领行业技术发展


2019 年开始,特斯拉智能驾驶方案迈上正轨,这一时期的特斯拉采用传统分解式方案,2021 年推出 BEV+Transformer 架构,2022 年又提出Occupancy network,通过感知算法处理传感器数据,然后将处理结果送入规划控制模型得出交互博弈的动态最优解。特斯拉在感知、规控两处模型创新性设计引领行业发展。


感知层,BEV+Transformer+Occupancy Networks 实现3D 重建,脱离高精地图限制


为构建三维向量空间,大部分车企使用激光雷达方案来获取深度信息,并与视觉感知进行融合,马斯克坚持第一性原理,将事物拆解回本质,使用更接近于人类驾驶员的纯视觉方案,通过多个摄像头数据实现智能驾驶,感知层是特斯拉与众多使用雷达的智能驾驶方案最大不同,也是特斯拉算法最显著的创新。


纯视觉方案首先需要解决多摄像头数据融合问题。常规做法是1)先对各摄像头数据进行处理后融合;2)直接将多摄像头数据整合后做特征提取等任务;3)先对多个摄像头进行特征提取,然后对有效特征加以融合。特斯拉选择第三种,并进一步引入 BEV 网络+Transformer 模型实现多视角图像特征转换到车体坐标的鸟瞰图,随后进化 Occupancy network 实现 3D 重建,判断空间占用并向下输出结果用于规划。 其中,BEV 是鸟瞰图(Bird’s Eye View)的简称,也被称为上帝视角,是将多传感器图像数据统一成用于描述感知世界的俯视视角,特斯拉先通过HydraNet共享的主干网络提取每个输入图像的特征,并将其投影到预设好的BEV 空间中,通过 Transformer 模型将时间和空间维度上的特征融合,以此将感知结果统一,尽可能扩大感知范围、便于后续规控模型操作。


Occupancy Networks 负责 3D 空间占用检测


Occupancy Networks 负责识别三维空间占用情况,即每一栅格是否有物体占用。具体而言,是将输入的多视角图像通过 BiFPN 和 CNN 组成的backbone 网络提取多尺度特征,然后模型通过带 3D 空间位置的 Spatial Query 对2D 图像特征进行多相机融合,以此生成 Occupancy Features 替代了原本的BEV Features。随后对不同时间及空间下的图像特征进一步融合,以此获得带有时序信息的4DOccupancy 特征。特征融合后,Occupancy 将整个3D 空间分割成一个个小栅格,并通过解码器输出每个栅格的空间占据概率等信息。算法从关注目标识别转向空间占用和语义分割,并据此进行道路规划,解决自动驾驶实际运行中存在没经过训练的数据无法被识别问题。


规控层,融入神经网络加速路径规划


特斯拉规控方案兼顾算法安全及算法耗时两方面。智能驾驶规控的核心目标是实现出发地到目的地间平衡最佳安全性、舒适性、驾乘时间和体验的路线,并驱使车辆顺利到达。其中在存在标识复杂路口或者众多交通参与者互动等场景,实现高效路径规划是核心。传统思路为尽量减少与其他交通参与者互动、做联合多物体的路径规划,但耗时长、用户体验差;特斯拉创新性引入交互搜索方案,1)接收上一步通过 BEV+Transformer 等多种大模型处理后的感知数据;2)通过接收到的 vector space 找到要去的路口、车道线等地点;3)做一条初始的路径规划;4)考虑场景中存在的其他交通参与者可能出现的博弈;5)重新进行路径规划。当人类驾驶员操控车辆,而系统后台规划决策与人类驾驶员行为不一致时,该场景特征通过影子模式上传至数据集参与后续训练。路径规划过程逐步增加约束条件(其他交通参与者博弈行为),并和神经网络结合,一方面保留约束规则保证规控层的安全、稳定;另一方面通过神经网络为模型加速。


2023 年之后,智能驾驶进入端到端AI 新时代


智能驾驶模型下一步迭代方向是端到端 AI 模型,以加大数据量换取系统复杂度和开发难度降低。端到端的智能驾驶方案将传统方案中感知、规划、执行等多个模型变成融合大模型,实现直接输入传感器数据到输出转向、刹车等驾驶指令的突破。一方面减少感知、决策等中间模块的训练过程,有效集中模型训练资源;避免产生数据多级传输导致的误差;同时也不存在各子模块目标与总系统目标存在偏差的情况,保证效益最大化。


端到端 AI 模型并不是新概念,实际上它被应用于各行各业,最典型即ChatGpt,从输入人类语言直接输出所需要的人类语言,不需要经过其他的模型做进一步的机器语言翻译。从算法上看,作为 openai 推出的语言大模型,基于Transformer模型的端到端生成式对话系统,创新性使用基于人类反馈数据的系统进行模型训练,具体而言是将系统输出的预测结果与真实结果之间形成的误差反向传播到模型中重新训练,调整权重和参数直至模型收敛(模型结果稳定,不会因为小的失误产生大波动)或者达到预期。Chatgpt 向智能驾驶及其他行业提供优化人与机器交互、提升数据训练效率等方向的思路。


智能驾驶层面,端到端最早出现在 1988 年的 ALVINN 实验中,实验者将一个摄像头装在真实车辆上,通过浅层神经网络实现图像特征提取,同时采集人类驾驶员动作,实现速度 0.5m/s 下 400 米的端到端无人驾驶。随后2016 年,英伟达公布无人驾驶系统 DAVE-2,结合近三十年的算力、算法等技术发展,其在ALVINN基础上增加摄像头和数据量,将浅层神经网络更新成先进的深度卷积神经网络以获得更好的特征提取效果,实现采集不到一百小时的训练数据足以训练汽车在高速公路、普通公路以及晴天、多云和雨天等多种情况下运行,路测数据显示98%时间为智能驾驶。


2023 年,马斯克提出 FSD V12 版本将实现端到端的AI 驾驶方案,特斯拉方案具备的天然优势有望引领智能驾驶模型迭代提速。端到端模型发展多年,英伟达、商汤等陆续提出方案,但是受限于算法、数据等限制始终没有大规模落地。2023年特斯拉提出 FSD V12 版本将实现端到端的 AI 驾驶方案,从输入图像到输出控制的操作更为直观、流畅,同时和 FSD 多年技术积累契合。1)传统的智能驾驶涉及雷达、摄像头、V2X 等多样化数据来源,数据存在不同的格式和维度,同时还需要考虑定位和地图的输入,很难放入统一的模型网络中;而特斯拉将采用视觉方案,重感知、轻地图,利用BEV 网络+Transformer架构实现了多视角视图的特征级融合,同时避免了雷达等传感器高成本问题。纯视觉方案存在难以识别没有经过训练的场景问题,即模型难以泛化,而特斯拉引入了Occupancy network 实现输入 2D 图像到输出 3D 空间重建,算法端能力得到验证。2)端到端模型将分解式模型中多个参数联合学习、拟合数据的实际分布情况、根据新的输入数据输出概率模型;根据大数定律,随机事件会在大量重复实验中收敛,即数据越多、拟合效果越好;端到端模型往往需要更大量的数据样本及算力支持。而特斯拉全球车队截至今年 5 月总行驶里程已经超过1000 亿英里,根据特斯拉官网,特斯拉用于优化系统的 autopilot 行驶里程数据已经超过90亿英里。


数据层面:构建数据闭环,可扩展智算中心适配训练量提升


数据闭环是高阶智能驾驶的必经之路。大模型及端到端模型训练均需要大量数据,特斯拉构建数据采集→搭建数据集→自动标注→送入模型训练→量化部署上车的数据闭环。 在数据采集层面,智能驾驶系统需要大量数据提供模型测试和优化,尤其是多样化、包含 corner case、标注深度、速度、加速度信息的数据。特斯拉基于数据集训练算法、通过云端部署到拥有影子模式(Shadow Mode)的车队中,影子模式在司机驾驶时运行但不控制车辆,运行算法中人类驾驶员行为与系统模拟行为不一致时,系统将此场景识别为“corner case”并上传搭建数据集,并用于后续的模型训练迭代。特斯拉智能驾驶数据集中的数据来自人工标注、自动标注、虚拟仿真及大规模生成四部分。人工标注是最传统的数据来源,直到2018 年时,特斯拉还在 2D 图像上采用人工标注,但效率低、难以满足模型迭代需求。2019年,特斯拉开始使用自动标注取代人工贴标,效率获得大幅度提升。特斯拉通过运行中的车辆采集数据,将包含图像、IMU、GPS 等数据的视频图像上传至服务器,对图像做预处理、输出深度等信息,再以 SLAM 等 AI 模型实现三维场景重建。标注效率显著提升,但考虑智能驾驶存在众多无法穷举的“corner case”场景、难以标注场景,特斯拉推进虚拟仿真及大批量生成,公司用尽量真实的传感器模拟和渲染设计虚拟数据,进一步扩充数据集丰富度。


数据中心端,可扩展性结构适配智能驾驶模型。Transformer 模型进一步奠定大模型领域主流算法结构,特斯拉自研 FSD 芯片提升车端智能驾驶算力;同时大数据量上车催化了算力需求的提升,数据训练中心算力需求同比提升。特斯拉2021年研发 AI 芯片 D1,同时将 25 个 D1 芯片封装成一个训练模块,达成9 Petaflops的算力,随后再将训练模块组成机柜,达到 1.1 EFLOP 算力,进一步提升数据训练中心能力。与特斯拉另外用 5760 个 Nvidia A100 构建的1.8 EFLOPS 超算中心相比,DOJO 的特色不在于算力的突破性进展,而是通过对称的分布式架构实现高扩展性;具体而言,通过 2D Mesh 架构连接形成互联对称、内存访问对称,同时具备分布式架构,每个 Node 都具有相同的处理能力和存储能力,可以实现增加机器但不影响模型运行性能的可扩展性,使模型开发和训练不会受模型分割等影响。


用户层面:目前整体渗透率偏低,FSD 入华或将加速


2016 年之前,特斯拉的辅助驾驶功能分为 autopilot 及enhanced autopilot两档,前者标配,包括交通感知巡航控制、自动辅助转向两项功能;后者提供高速导航、自动变道、自动泊车、智能召唤功能,需要购车时额外付费5000 美元购买(购车后需要 6000 美元)。2016 年特斯拉推出 FSD 预定,当时并没有给出功能,只需要在购车时额外增加 3000 美元可以获得预定;2019 年第二季度特斯拉正式发布 FSD 应用版本,价格增长至 5000 美元,同期取消enhanced autopilot购买;FSD 订购率飙升至历史最高。此后,随着低价格车型(3&Y)及中国地区销量快速增长、FSD 价格增长,2019 年第三季度开始 FSD 渗透率呈现下降趋势,截至2022年 Q3,特斯拉 FSD 全球订购率在 7.4%,北美和欧洲地区略高,在14.30%和8.80%,亚太地区仅为 0.4%。


低价格车型(3&Y)及中国地区销量快速增长、FSD 价格增长,2019 年第三季度开始 FSD 渗透率呈现下降趋势。


1)价格较低且 FSD 订购率较低的 Model 3、Model Y 车型销量规模增长。由于不同的产品定位和客户群体,特斯拉不同车型的 FSD 订购率存在较大差异。根据TroyTeslike 数据,同在北美,model 3 和 model y 的订购率分别为5.20%和13.30%,而 model s/model x 处于 44.80%的高位。特斯拉 2016 年推出model 3,2017年产品开始交付,产品定价相对较低,销量增长迅速,至2023 年第一季度,model3及 model y 销量已经占据整体销量的 96%,公司整体产品销售结构变化带来FSD订购率变化。


2)尚未完全开放 FSD 功能的中国为代表的亚太地区销量规模增长。国内特斯拉销量持续增长,截至 2023 年第一季度,中国地区特斯拉销售车型累计超过153万台,但是由于数据安全问题,特斯拉尚未能向中国地区用户完全开放FSD 功能,目前国内用户手册上并没有完全智能驾驶能力(Beta)功能,支付6.5 万元费用后所得体验仅为标配 AP(自适应巡航、车道保持)+EAP(高速上自动辅助导航、高速上自动辅助变道、智能召唤、自动泊车),而 EAP 单独售价仅为3.2 万元,国内FSD 订购率极低。


3)FSD 价格一路上涨。2016 年北美 FSD 售价为购车时在EAP 基础上增加3000美元预订或购车后支付 4000 美元预订;在 2019 年 4 月,特斯拉正式发布FSD应用包,价格上涨至 5000 美元,经过多轮涨价,最新到 2023 年的V11 版本,FSD售价跃升到 15000 美元。随价格上涨,特斯拉陆续增加城区NOA 等辅助驾驶功能,一定程度上提升用户体验,但受法规、技术限制,FSD 整体仍是L2+辅助驾驶,没有出现跨越性革新。


截至 2022 年 Q3,特斯拉 FSD 全球订购率在 7.4%,北美和欧洲地区略高,在14.30%和 8.80%,亚太地区仅为 0.4%。马斯克提出全面智能驾驶时代今年年底即将到来。而我们预计随 FSD 进入中国,澳洲、德国等地持续开放FSD BETA、V12 端到端版本推出以及 Robotaxi 落地,FSD 渗透率持续提升。


1)FSD 若进入中国,将有效提升亚太地区渗透率。截至2023 年第一季度,中国地区特斯拉销售车型累计超过 153 万台,但亚太地区整体FSD 渗透率水平不到1%,待开发市场广阔。我们认为 FSD 完全进入中国关键在于数据。1)数据获取:特斯拉最新的 BEV+Transformer+Occupancy networks 大模型摆脱高精地图限制,但根据自然资源部规定,特斯拉智能驾驶辅助系统运行、服务和道路测试过程中对车辆及周边道路设施空间坐标、影像、点云及其属性信息等进行采集、存储、传输和处理的行为属于测绘,外商投资企业应委托具有相应测绘资质的单位开展相应测绘活动,由被委托的测绘资质单位承担收集、存储、传输和处理相关空间坐标、影像、点云及其属性信息等业务及提供地理信息服务与支持。2)数据中心的存储及训练:2021 年 5 月 12 日,国家互联网信息办公室发布《汽车数据安全管理若干规定(征求意见稿)》提出,个人信息或者重要数据应当依法在境内存储,确需向境外提供的,应当通过国家网信部门组织的数据出境安全评估。马斯克在 2021 年 9 月世界互联网大会上提出,特斯拉已在中国设立数据中心,将中国业务产生的所有数据本地化,包括生产、销售、服务和充电。初步解决个人数据存储问题,未来进一步解决自动驾驶数据存储及自动驾驶模型本地化迭代难题后,在国内外法规加速落地情况下,中国及亚太地区渗透率有望加速提升。


2)澳洲、德国等地 FSD BETA 开启推送。特斯拉 2020 年10 月推出FSD BETA,首次推出仅向美国少数用户开放测试,需要用户主动申请并通过安全评分系统评估;2022 年 2 月,该功能向加拿大少数用户开放;2022 年11 月,特斯拉向全北美用户开放测试权限,用户申请即可使用。直到 2023 年5 月,根据Teslascope平台,特斯拉 FSD BETA 首次在澳大利亚、德国、比利时开启推送,FSD BETA 首次向北美以外地区拓展,欧洲、澳洲渗透率有望提升。


3)FSD V12 带来端到端模型革新。FSD 自 2019 年正式推出后,经历几轮涨价和多次系统更新,比如 2020 年 FSD BETA 版推出城区自动转向,2022 年11 月将高速公路辅助驾驶系统融入 FSD BETA 版本。但是受限于法规等限制,并没有推动真正的功能性革新。马斯克今年提出 FSB V12 版本将去掉“BETA”,启用端到端的自动驾驶大模型,将多年来行业通用的感知、规划几个模型融合成大模型,减少中间模型训练工作量、加速自动驾驶算法迭代、提升用户体验。新一代大模型落地后,FSD 系统渗透率有望进一步提升。


4)Robotaxi 预计 2024 年量产,B2C+C2C 双模式拉动FSD 渗透率提升。马斯克在2016 年提出共享车队概念,提出车主可以将自己的车加入共享车队,同时特斯拉会在需求旺盛的地区布局自己的车队;2019 年明确指出特斯拉车主可以选择将自己的车加入到 Robotaxi 中,特斯拉会从其中抽取25%~30%分成的商业模式。2022年马斯克重申 Robotaxi 将于 2024 年量产,采用无方向盘或者踏板设计。按照特斯拉官方测算,Robotaxi 出行成本低至每英里 0.18 美元以下,远低于目前的出行费用(如深圳滴滴快车每公里收费 2-2.5 元,折合传统/拼车每英里0.5-0.7美元),Robotaxi 落地空间广阔。马斯克预计每辆Robotaxi 每年可带来超3万美元的利润,可连续载客 11 年。B2C 模式增加特斯拉配FSD 车型出货量,C2C模式提升客户订购率,Robotaxi 落地后,FSD 渗透率有望持续上行。


国内公司积极布局高阶智能驾驶,大模型快速推进


高阶智能驾驶将人从操作车辆中解放出来,显著提升驾乘体验,预期拥有极高用户粘性,同时将车企定位从传统制造业转向科技行业,收费模式从整车交易的一锤子模式转向持续付费,公司投资意愿较强。华为、小鹏等公司积极布局、快速推进大模型发展,带动产业链上下游充分受益。


特斯拉引领,国内新势力积极跟进大模型布局


特斯拉 BEV+Transformer+Occupancy networks 大模型引领潮流后,华为、小鹏等多家公司走向摆脱高精地图依赖道路。根据九章智驾信息,小鹏汽车发布XNet,采用多相机多帧的方式把来自每一个相机的视频流直接注入到一个大模型深度学习网络里,进行多帧时序前融合,输出 BEV 视角下的动态目标物的4D 信息(如车辆,二轮车等的大小、距离、位置及速度、行为预测等),以及静态目标物的3D信息(如车道线和马路边缘的位置)。理想汽车 2023 年6 月17 日召开家庭科技日发布会,其城市 NOA 不依赖高精地图,采用增强BEV 大模型,配备的自动驾驶训练算力达 1200PFLOPS,还有 6 亿公里训练里程,当月开启北京和上海城市NOA内测;通勤 NOA 在用户自主设定通勤路线下 1-2 周内可以完成训练,预计通勤NOA下半年开放。华为 ADS 于 2020 年首次亮相,1.0 版本实现基于Transformer的BEV架构,今年发布的 2.0 版本增加独家自研 GOD 网络,通过激光雷达、毫米波雷达、摄像头等多传感融合感知,具备识别异形障碍物能力,实现无高精地图智能驾驶。华为智能驾驶方案与长安阿维塔、赛力斯问界、北汽极狐等深度合作,预计今年第三季度将实现 15 个无图城市落地,年末达到 45 城无图驾驶落地。


大模型助力成本下降,自动驾驶空间广阔


大模型上车强化视觉算法弱化成像雷达,有望实现感知硬件整体降本。大模型落地有效减少高精地图依赖,弱化成像雷达作用,考虑中国存在很多城区快速建设、道路频繁变化的城市,如果在没有大模型帮助下落地城区NOA,会受限于高精地图及成像雷达高成本(头豹研究院指出高精地图辅助智能驾驶的服务费预估每辆车为 700-800 元/年,是普通导航电子地图的 20-35 倍)。大模型加速车企上车城区辅助驾驶,同时减少车企的传感器硬件配置压力,华为ADS 2.0 版本使用1个激光雷达、3 个毫米波雷达、11 个摄像头组及 12 个超声波雷达,相对ADS1.0方案减少 2 个激光雷达;特斯拉 FSD 也逐渐取消毫米波雷达及超声波雷达的传感器。未来整车传感器成本有望持续下降,自动驾驶市场空间提升。


预计 2025 年国内带城区辅助驾驶功能的自动驾驶市场规模510 亿元;远期市场规模随技术进步将持续增加。我们预计随车企硬件方案降本及高阶自动驾驶能力上车,2025 年带城区辅助驾驶功能的自动驾驶渗透率将从目前的0.4%提升到6%水平,按照国内乘用车销量 2430 万辆,自动驾驶单车价值34000 元买断预估,国内市场规模将到 510 亿元水平。我们认为用户对自动驾驶产品的定价与自身成本息息相关,用户选择以自动驾驶产品取代人类司机的底层逻辑是以机器取代人力,当自动驾驶软硬件厂商进步,产品供给曲线右移,产品会触及更多自身驾车时间成本或人力工资成本稍低的用户,即远期看,稳态下自动驾驶需求量有望持续增加,远期市场规模约为 2880 亿元。


数据需求提升,部分公司布局智算中心


当前的智能驾驶模型普遍基于深度学习构建,前期输入大量数据训练模型,使得模型具备类似人类驾驶员的感知、规划、执行能力,并通过训练矫正其行为。同时考虑现实存在 corner case,智能驾驶模型上车后也需要不断接收用户数据或使用仿真数据对模型迭代训练。随智能驾驶等级提升以及越来越多的大模型算法上车,数据计算量增大,算力要求提高,为匹配数据量增长并做好后续大规模数据训练准备,部分公司开始布局智算中心。 根据国家信息中心定义,智算中心是智能时代面向社会全域多主体的新型公共基础设施,集算力生产供应、数据开放共享、智慧生态建设和产业创新聚集四大功能于一体,为有海量数据存储、处理、分析及应用支撑需求的各类场景提供载体支撑,提供包括生产、聚合、调度、释放算力四个环节能力;1)生产算力,基于强大服务器和多种算力芯片,对智能驾驶模型提供数据处理、训练;2)聚合算力,采用最新网络和存储技术实现文件、对象、块、大数据存储服务一体化及同一架构上不同应用件数据融合, 并在需要时将数据高效传出;3)调度算力,基于智能驾驶系统对算力的需求特点,通过虚拟化、容器化等技术,CPU、GPU、FPGA、ASIC 等算力资源进行标准化和细粒度切分,满足多样化需求,保障系统开发和业务的高效运行。4)释放算力,采用全流程软件工具,针对不同场景应用需求,通过机器学习自动化的先进方法产出高质量模型或服务。


智算中心建设周期长,初始投资大,主机厂出于算力需求开始建设。但是高阶智能驾驶模型尤其是端到端模型数据计算量巨大,部分有实力的主机厂及企业已经开始布局。参考佐思汽车信息,2023 年 1 月,吉利汽车的星睿智算中心正式上线,总投资 10 亿元,规划机柜 5000 架。该中心目前的云端总算力达81 亿亿次每秒,预计到 2025 年,算力规模将扩充到 120 亿亿次每秒;覆盖包括智能网联、智能驾驶、新能源安全、试制实验等业务领域,提升吉利整体20%研发效率。特斯拉的dojo 超算中心进一步提升其综合业务能力(智算中心是CPU+AI 芯片,针对特定的人工智能行业赋能;超算中心采用 CPU+GPU 的芯片架构,可针对行星模拟、工程仿真等多种领域实现通用化大精度计算赋能)。


大模型落地推动智能驾驶硬件变革


大模型及高阶自动驾驶落地同样催化硬件配置变革。我们整理了目前特斯拉和国内造车新势力的代表车型智能化配置,出于硬件预埋角度,虽然目前国内暂时无法落地高等级自动驾驶,蔚来等部分车企还是选择配置30+颗传感器,其中包括800 万像素摄像头,为后续高阶智能驾驶落地后 OTA 升级做足准备。我们认为在大模型落地及高阶自动驾驶加速上车的趋势下,越来越多的车企传感器方案重心会向视觉倾斜,会有更多的 800 万像素摄像头上车;同时1000+TOPS 的大算力域控制器数量增多,底盘端线控制动和线控转向渗透率也将直线向上。


我们简单梳理当前智能驾驶各环节硬件配置价值量水平,以小鹏G6 为例,目前小鹏 G6 Max 版搭载 31 颗传感器,包括 12 颗摄像头+12 颗超声波雷达+5 颗米波雷达+2 颗激光雷达,整车传感器+域控成本约 3 万元。具体看,预计单个120万/500万/800 万像素摄像头价格为 100~200 元/300~400 元/400~500 元;超声波雷达单价百元内;预计 3D 角雷达单价为 200~300 元;3D 前雷达单价约400~500元,4D成像毫米波雷达价格在 1500~2000 元水平;激光雷达成本较高,目前单价预计在5000~6000 元;L2~L4 级自动驾驶域控预计在 2000~10000 元区间。


变化一:感知端,系统重心向视觉转移,摄像头像素水平提升


视觉逐渐成为感知系统重心,摄像头像素水平提升。车企摄像头方案相对雷达优势显著,一方面感知信息丰富,通过图像数据显示车道线、交通信号灯等多种信息,达到最接近人眼的感知效果;另一方面,摄像头从1956 年开始在汽车应用,技术水平更为成熟、产业链更为完备。在大模型的助力下,图像感知数据的处理能力得到进一步提升,视觉在感知层优势越来越显著。特斯拉从HW1.0 时期仅配备单个摄像头向三目前视、多路环视摄像头方案升级,目前国内新势力车型普遍采用 30+个传感器配置,摄像头占比约 40%。同时随自动驾驶技术进阶,摄像头素质同比提升,800 万像素的摄像头提供更好的成像效果、更远的探测距离及更大的视场角,2022 年开始大量 800 万像素摄像头搭载上车。理想L9、蔚来ES8等车型单车配备 800 万像素摄像头数量达 6~7 个。 目前行业普遍采用的11~12颗摄像头+5颗毫米波雷达+1~3颗激光雷达方案的成本在 1.5 万元~2 万元水平,远期规模化量产,全无人驾驶下,车企10-11 个摄像头+3 个 4D 毫米波雷达+2 个普通毫米波的传感器配置,成本有望降至10000元内。


4D 毫米波雷提供较高质量图像数据,有望加速上车,2023 年中国乘用车前装市场搭载量将有机会突破百万个。自动驾驶算法发展提升图像数据处理质量,大模型和数据中心落地提升自动驾驶预训练数据集空间,但是国内仍存在大量cornercase,存在被遮挡“鬼探头”现象。摄像头、激光雷达等传统方案不能解决困境,4D 毫米波雷达提供“穿墙”数据,提高感知系统探测能力。相对传统的3D毫米波雷达,4D 毫米波雷达点云数据更加密集,提供较为清晰的图像。同时其成本又显著低于激光雷达,该产品也将随高阶自动驾驶落地及车企降本压力快速上车。高工汽车研究院预测,2023 年中国乘用车前装市场,4D 成像雷达的搭载量将有机会突破百万个。


国内外供应商积极布局,少部分产品已经量产上车。4D 毫米波雷达优势显著,大陆集团、采埃孚、森思泰克、保隆科技等 Tier1 厂商,以及华为、mobileye等自动驾驶方案供应商都积极布局 4D 毫米波雷达市场。其中森思泰克进度较快,其产品已经在理想 L7、长安 SL03、红旗、吉利等多个品牌配套量产。


车载通信有望转为光信号方案。更进一步,目前行业内传输车内远距离的摄像头信息普遍使用串行解串器方案,这部分产品掌握在德州仪器、美信串行器GMSL两家手里,不利于我国车企产业链安全;未来行业趋势是从电导线转向光导线,光导线不受电磁场干扰,可以减少抗干扰配置,整车成本有望下降,同时我国企业有较强的产业优势,华为等公司已经开始研究光信号下的车内通信,行业有望加速发展。


变化二:规划端,数据要求提升,域控算力升级


数据和算法要求提升,自动驾驶芯片算力持续提升(或从低于100tps到远期1000tps)。一方面大模型及大型自动驾驶数据处理提出大算力需求;另一方面,高规格摄像头等传感器上车提供更多需要处理的数据,增加算力消耗,比如传统的 L1-L2 级自动驾驶,配备 120-200 万像素摄像头,只需要对车道检测等简单功能提供算力,而 800 万的高像素及 L2+高阶自动驾驶上车要求自动驾驶系统处理城区复杂路况、多交互场景的路口变道等情况,神经网络算法要求提升,域控制器算力需求进一步提升。根据 36 氪研究院整理数据,L2 级以下智能驾驶算力需求仅为 10+TOPS,而 L3 阶算力需求为 100+TOPS,到L5 级算力需求跃升至1000+TOPS。近些年域控上车数量提升,国内德赛西威、宏景智驾等公司占据行业出货量第一。同时各家不断搭载大算力域控制器,提前做超规格硬件预埋,为后续落地的高阶自动驾驶功能做储备。目前行业内自动驾驶域控从L2+到L4级单车价格 4000 元+到 10000+元水平。


变化三:执行端,线控底盘大势所趋


线控底盘以电信号驱动取代机械或液压部件驱动的执行机构信号,核心技术包括线控转向、线控悬架、线控制动三个部分,整体传输信息效率高、时间短、控制精确,有望和智能化结合完成汽车主动控制工作,是高阶自动驾驶的大势所趋。


1)线控制动,ADAS 执行层的核心产品。传统燃油车以发动机动力提供真空度的真空泵放大脚踩刹车器的力度,实现制动操作;线控制动产品以电控信号取代传统制动系统的部分或全部机械部件,解决了新能源车缺少真空泵源的困境,通过电信号获得更快的信息传输及相应速度,提供更安全舒适的驾乘体验,同时可以通过电机提供主动控制,不需要人类驾驶员踩下踏板提供机械部件动力,将人从制动操作中解放出来,是高阶自动驾驶的必经之路。根据九章智驾,博世的ibooster 方案将系统响应时间从常规的 300-500 毫秒缩减到120-150 毫秒;大陆集团的 MK C1 在 30km/h 时启动行人保护,刹车距离从6.8 米减少到4.1 米。另外,线控制动系统可以通过电机控制器将车轮减速产生的制动能量转化为电能存储,实现一定的能量回收,提高车辆续航。目前随着电动智能化提速,自动驾驶级别提升,主机厂线控制动应用意愿增强,线控制动行业有望加速上量。根据佐思汽研数据,2019 年国内乘用车市场的线控制动装配率为2.6%,2021 年为8.6%。假设 2025 年我国汽车产量 3000 万辆,线控制动产品单价为1500 元,产品渗透率达到 40%,则线控制动市场规模约为 180 亿元。


EHB 是主流方案,ONE-BOX 享有高集成度、低体积、低重量优势。产品设计上,线控制动传统液压系统+电信号控制单元的 EHB 系统和完全由电子控制单元与机械部件相连的 EMB 系统两种线控制动产品。EMB 将电机直接集成到液压钳上,响应效率高,但是技术成熟度低、成本较高且存在冗余设计困难,短期内无法取代EHB 的主流地位。而在 EHB 中,根据集成度高低又分为TWO-BOX 和ONE-BOX两种。ONE-BOX 方案的 ECU 中集成了 ESC 等功能,只有 1 个ECU,而TWO-BOX 方案没有集成,有 2 个 ECU,需要做协调。由于 ONE-BOX 方案集成度更高,在体积、重量上占优,在制动失效时的减速度表现更优秀,且其售价普遍低于TWO-BOX 产品,有望成为主流方案。目前伯特利、拿森电子、拓普集团等公司布局ONE-BOX 方案研发。


2)线控转向,线控转向用电子控制器取代方向盘与转向轮之间的机械连接,将驾驶员操作以电信号行驶向下传输给执行器执行转向操作,甚至更进一步在自动驾驶模式由控制算法给出向下传递的信号实现操作,将汽车转向的决策核心由人转为算法,是实现高阶自动驾驶的必经之路。另外,传统转向的机械连接限制系统传动比为固定值,而线控转向可以根据需求自由设计转向角传动比,谢立刚、陈勇、郭晓光 1通过实验论证这一设计有效提高车辆在低速行驶灵敏性,改善其高速时行驶的稳定性,实现“灵”与“轻”共存。 线控转向系统难度高,需要考虑硬件冗余安全、软件设计安全等多种因素,同时2022 年之前受到国内法规限制,落地进展较为缓慢。2022 年,我国开始实行GB17675-2021《汽车转向系基本要求》,解除以往对转向系统方向盘和车轮物理解耦的限制,同年中汽研标准所和集度、蔚来、吉利成为中国线控转向相关国家标准制定牵头单位,共同加速线控转向落地。根据中国汽车工程学会《线控转向技术路线图》征求意见稿,线控转向的量产目标为 2025 年渗透率5%,成本4000元以内;按照 2025 年中国乘用车大约 2500 万辆规模,中国乘用车线控转向市场规模约在 50 亿元水平,长期随高阶自动驾驶上车,线控转向渗透率将加速上行。


3)线控悬架,汽车 Z 轴调节。作为主动悬架的空气悬架升级传统悬架的钢制弹簧为空气弹簧调整悬架刚度和车身高度,升级普通减振器为电控减振器调整阻尼,具有高稳定性、舒适性、通过性,可提高车辆空间整体利用率。而在高阶自动驾驶上车时代,汽车传感器数量和算力水平不断提升,空气悬架可结合导航信息和汽车传感器输入数据,预先获知前方路况并提前做出反应,未来甚至可以与自动驾驶和智能座舱结合,给消费者带来最优乘车体验。


国产化加速空悬渗透率提升,25 年市场规模预计将达240 亿元。空气悬架整体成本较高,之前产品广泛应用于豪华车型;近些年受车企军备竞赛及国产化供应降本影响,空悬逐步向低价格带车型渗透。根据高工汽车数据,前装标配空气悬架新车均价从 2021 年的 57.52 万元下降至 2022 年的55.33 万元。2022 年中国乘用车市场搭载空悬配置数量为 28.01 万台,渗透率约为1%。预计随国内供应商加速量产、高阶自动驾驶进一步催化,2025 年中国市场乘用车空悬系统年搭载交付规模有望冲刺 300 万台,假设单车价格 8000 元,对应市场规模约240 亿元。


线控底盘是自动驾驶大势所趋。线控底盘改变底盘架构,大规模以线束和控制器取代原有的机械连接,通过电驱动执行操作;一方面改善底盘各环节响应速度,减轻整车底盘重量,契合自动驾驶时代的 OTA 升级趋势;另一方面,也为高阶OTA的全计算控制布局,线控转向、线控制动将驾驶员与车辆操控解耦,线控悬架提升驾乘人员舒适度,未来可以结合摄像头等多传感器数据实现完全自动驾驶。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)


相关报告

智能驾驶行业专题:AI赋能背景下看汽车智能驾驶算法的迭代.pdf

知行汽车科技研究报告:港股智能驾驶第一股,利润爆发在即.pdf

高精度定位行业专题报告:智能驾驶的可靠辅助.pdf

中国L4智能驾驶电动卡车行业市场调研报告.docx

激光雷达产业梳理:再看汽车智能驾驶之眼.pdf

汽车智能驾驶行业专题报告:特斯拉专题.pdf

AI人脸识别诈骗敲响金融安全警钟.pdf

AI搜索专题报告:怎么看Kimi的空间?.pdf

边缘AI行业研究报告:边缘AI硬件,引领硬件创新时代.pdf

人形机器人专题报告:AI驱动,未来已来.pdf

建筑行业2024年春季投资策略:新国九条催化央企市值国改,低空经济AI与铜矿有色弹性大.pdf

汽车空气悬架行业研究:高附加值集成部件,国产替代新蓝海.pdf

零跑汽车研究报告:全域自研驱动技术降本,汽车出口盈利前景可期.pdf

华为汽车专题分析:X界智选,鸿蒙智行.pdf

麦肯锡&中国电动汽车百人会-新能源汽车行业驶向2030:全球新能源汽车产业发展格局与展望.pdf

长安汽车研究报告:汽车央企转型新生,产品向上开启新周期.pdf

【国信证券】智能驾驶行业专题:算法篇,AI赋能背景下看汽车智能驾驶算法的迭代.pdf-第一页
联系烽火研报客服烽火研报客服头像
  • 服务热线
  • 4000832158
  • 客服微信
  • 烽火研报客服二维码
  • 客服咨询时间
  • 工作日8:30-18:00