电子行业专题报告:AI大模型加速落地,汽车智能化迅速发展

(报告出品方:东方证券)
一、 AI 技术提升汽车智能化
汽车智能化主要体现在自动驾驶和智能座舱两方面,AI 技术的发展持续提升汽车的智能化能力, BEV、认知、NLP 语言等 AI 大模型技术有望助推汽车智能化登上新高度。 2023 年上半年,已有多家厂商基于 BEV 大模型的自动辅助导航驾驶 NOA 系统量产;2023 年 6 月发布的新摩卡 DHT-PHEV 将搭载认知大模型;2023 年内,2 款搭载 NLP 语言大模型的新车型 将要上市。
1.1 国标促进自动驾驶逐步落地,座舱智能化程度持续提升
随着人工智能技术的不断进步和成本的降低,自动驾驶技术有望不断成熟和普及。国标《汽车驾 驶自动化分级》(GB/T 40429-2021)于 2022 年 3 月正式实施。国标参考美国 SAE 标准基础, 0-5 级基本对应 SAE 标准 L0-L5;值得注意的是,国标将 0-2 级自动驾驶规定为如遇到事件影响 由驾驶员及系统协作完成,并非 SAE 标准中的全部让驾驶员来完成。
根据工信部、中国工业经济联合会、中国汽车工程学会等机构数据,2022 年 2 级(L2 级)辅助 驾驶渗透率达 34%,其中燃油车渗透率为 32%,新能源汽车渗透率为 46%。目前全球和中国汽 车市场 3+级(L3+级)高等级自动驾驶技术的渗透率仍处于极低水平。 在中国汽车工程学会牵头组织编制的《节能与新能源汽车技术路线图 2.0》中,明确提到到 2025 年,PA(部分自动驾驶)、CA(有条件自动驾驶)级智能网联汽车市场份额超过 50%,HA(高 度自动驾驶)级智能网联汽车实现限定区域和特定场景商业化应用。到 2030 年,PA、CA 级智能 网联汽车市场份额超过 70%,HA 级智能网联汽车市场份额达到 20%,并在高速公路广泛应用、 在部分城市道路规模化应用。相似的,中国工业经济联合会会长李毅中预测,2030 年 L3 自动驾 驶渗透率将达 70%。 此外,汽车的智能化也体现在座舱的持续升级,已从传统座舱的机械仪表盘、车载收音机等,发 展到具有生物识别、驾驶员健康的智能助理座舱,并将实现使用场景丰富的信息、娱乐等多功能 融合的第三生活空间。
1.2 AI 是自动驾驶模块化系统和端到端系统的关键
AI 是自动驾驶系统感知和决策模块的关键。主流自动驾驶系统为模块化系统,可分为感知、决策 和执行三层,AI 是其中感知层和决策层的核心内容。
图片
感知层中,传感器算法是关键,多传感器融合算法可分为数据级融合、特征级融合和决策级融合 三种,决策级融合是最广应用的技术方案。特斯拉的矢量地图建模和自动车道标注算法是其自动 驾驶算法的重要内容,为实现车道轨迹规划提供支持。 决策规划算法可进一步分为全局路径规划层、行为决策层和运动规划层。全局规划算法,包括基 于物理模型、基于意图分类、基于深度学习等主要类别;行为决策算法,包括基于规则、基于学 习、融合规则和学习等主要类别;运动规划算法,包括基于策略规则、基于最优控制、基于机器 学习等主要类别。行为预警式运动规划将决策规划过程升级为交互式过程,引入人机共驾、车路 协同以及车辆对外部动态环境的风险预估,有助于提高自动驾驶车辆行驶安全性。
端到端自动驾驶系统成为研究热门,对 AI 大模型需求更甚。端到端系统中感知决策一体化,较传 统模块化设计性能有望更佳,同时可更有效处理复杂路况和多交通要素交互情况。2023 年 5 月, 特斯拉 CEO 马斯克在推特表示,特斯拉计划在其全自动驾驶(FSD)Beta v12 版本中使用全新的端到端人工智能,通过单个神经网络编码,仅利用特斯拉汽车上的摄像头输入,来输出转向、 加速、制动等驾驶行为,模型可通过学习人类输入的驾驶行为来不断改进。 复杂性和安全性隐忧存在,端到端系统尚未落地。在端到端系统中,输入数据到输出控制仅通过 一个 AI 大模型实现。一方面,多模态、大量传感输入数据和严苛的输出精度和速度要求,对车载 硬件算力和车端、云端协同要求较高;另一方面黑箱模型很难进行系统化的解释分析,只能依靠 推测和实验调整,在出现问题时难以快速定位对症,在模型更新时也易出现倒退。因此,端到端 自动驾驶系统目前还未成为主流。
1.3 AI 大模型在自动驾驶领域应用前景广阔
AI 大模型在 NLP、CV 方向发展迅速,在自动驾驶领域感知、决策等模块具有广阔应用前景。CV 大模型主要用于感知层算法,可用于数据自动标注、传感器算法和场景仿真;NLP 大模型主要可 应用于车机系统和智能座舱,实现更高智能的人车交互;而多模态大模型一方面可应用于多传感 器数据融合的感知算法,提高感知精度和安全性;另一方面,多模态大模型是端到端、决控集成、 感知决策一体化等新自动驾驶架构实现的主要解决方案。海量数据驱动的多模态 AI 大模型将成为 集成化自动驾驶设计实现的关键。
AI 大模型有望加速 L0-L2 级辅助驾驶向 L3+高等级自动驾驶的发展过程。高等级自动驾驶对精度 和复杂度要求更高,需要高精度的环境感知和场景重建。要突破极端路况/天气等长尾场景的应用, 实车数据和测试数据必须有更充分的积累。一方面,面对环境感知数据量和复杂度的增加,数据 标注和仿真方法必须进步;另一方面,为了减少感知过程中原始数据的信息损失从而提高感知精 度,数据驱动的多传感器数据融合 AI 大模型将更受重视。
高等级自动驾驶在认知决策需更智能化、人性化。传统决策规划方法将从传统的基于规则,向数 据驱动、基于学习的决策智能方向发展,Transformer+RL 架构已展示出面对更大数据集、更复杂、 更大型环境中的应用优势。长期来看,端到端自动驾驶系统落地有望。端到端系统需基于单一模 型实现输入数据处理到决策控制的全过程,Transformer 架构的 AI 大模型可满足需求。
二、 多种 AI 大模型将应用在智能汽车
2.1 AI 大模型在智能汽车的应用,需满足数据、模型、算力的 三重要求
海量训练数据是 AI 大模型的应用前提。自动驾驶龙头企业的实际里程数据积累占据大模型应用先 机。2020 年 4 月,特斯拉 Autopilot 智能驾驶系统里程数就已超过 48 亿公里;百度 Apollo 自动驾 驶也已积累超 5000 万公里测试里程;2023 年 4 月,毫末智行发布的 DriveGRT 认知模型使用了 超过 4000 万公里真实里程进行训练;小鹏汽车的智能辅助驾驶行驶里程截至 2022 年 8 月超过 1.74 亿公里,高速智能导航辅助驾驶(NGP)累计行驶里程超过 2450 万公里。 AI 大模型应用为时尚短,自动驾驶领域模型架构仍在探索中。目前 AI 大模型主要应用于自然语 言处理(NLP)和计算机视觉(CV)领域,以 Transformer 架构为主。Transformer 架构较卷积 神经网络(CNN)在大规模数据的学习中表现更好,也有少量 CNN 架构的大模型处于科研进程中。 目前,ChatGPT、DriveGPT 等大模型均采用 Transformer 架构+监督学习(SL)预训练+人类反 馈强化学习 (RLHF)的模式。
自动驾驶 AI 大模型的算力建设主要可分为以下 3 种模式: 自建智算中心,独立训练大模型。特斯拉等自动驾驶厂商已自建云端计算中心,用于自动驾驶模 型训练和数据标注。 部分环节合作。百度、腾讯、火山引擎(字节子公司)等互联网科技公司均推出 toB 全流程智能 汽车云服务,为主机厂提供数据中心用于模型训练。 解决方案合作。百度文心、商汤日日新等大模型体系均开放了与车企的行业应用合作渠道,针对 汽车行业应用场景进行模型调优。如吉利汽车与百度文心合作吉利-百度文心 NLP 大模型,2023 年 5 月 31 日,首款搭载车型吉利银河 L7 已经上市。
AI 大模型训练过程算力要求高,智算中心成为关键。自动驾驶领域 AI 大模型训练数据规模在亿 公里级多模态传感数据,参数可高达几百到几千亿,预训练阶段算力要求非常高。特斯拉、吉利、 小鹏、毫末智行等主要自动驾驶厂商采用不同模式建设云端计算中心用于模型训练。
图片
科技巨头可为自动驾驶主机厂提供算力支持和 AI 大模型开发服务。百度、华为、腾讯、阿里等科 技巨头,具有较强的 AI 模型开发能力和充足的 AI 算力,可作为云计算服务商和云开发平台为主 机厂的 AI 大模型开发提供服务。相较主机厂投建智算中心和独立 AI 模型开发平台的方式,其成 本和技术难度大幅降低,也为小型新创主机厂和传统汽车厂提供了快速入局自动驾驶领域和追赶 头部自动驾驶厂商的机会。据 IDC 数据,2022 年百度 Apollo 自动驾驶云平台和华为分别占据 34.4%、29.7%的中国自动驾驶开放平台市场规模,行业集中度较高;2022 年中国自动驾驶平台 市场规模达到 5.89 亿元,增速达 106%,预计 AI 大模型应用推广带来算力需求进一步增长,IDC 预计 2023 年将达 7.9 亿元。
合作并装载互联网企业已开发的 BEV 感知模型,可成为新入局主机厂的较优选择。AI 感知决策 大模型均需海量数据驱动,已宣布实现 BEV 感知模型落地的国内厂商包括百度 Apollo、小鹏汽车、 华为、毫末智行、商汤等,均为已实现高速辅助驾驶量产并积累大量智能驾驶数据的主流自动驾 驶主机厂或互联网企业。考虑到数据收集、标注和模型训练的复杂性,与百度、华为、商汤等互 联网企业合作,搭载其已开发的 BEV 感知模型可大大降低主机厂入局自动驾驶的成本。
NLP 大模型实现人车的更友好交互,推动座舱智能化进程;CV 大模型助力数据标注、仿真和感 知等;多模态 AI 大模型为城市场景辅助驾驶乃至高等级自动驾驶的规模量产拉开帷幕,同时也有 望用于智能座舱中的人机交互,融合语音、视觉、手势等多种交互方式,满足用户在不同场景下 的不同使用习惯。
2.2 NLP 大模型助力人车交互,加速座舱智能化
NLP 大模型的应用可实现语言交互、拟人表达和决策建议。NLP 大模型可突破性解决传统人车交 互场景中对话风格固化、智能性差的问题,根据高工智能汽车研究院数据,2022 年中国智能座舱 前装搭载率为 39.89%,其中搭载了语音交互功能的智能座舱占比已达到 76.76%。NLP 大模型的 落地和普及,预期将带来智能座舱的技术革新。 NLP 大模型提升操作系统交互性和功能丰富度。逻辑推理、策略规划和知识问答等功能使车载操 作系统功能全面升级;可实现自然对话式交互,使语音交互成为车载系统主要操作模式之一,带 动操作系统架构的重新优化调整。 2023年3月,百度发布文心NLP大模型,其智能语音交互功能已搭载到Apollo智能座舱系统上; 2023 年 5 月,科大讯飞发布讯飞星火认知大模型,宣布“大模型+智能座舱”为其四大行业应用 之一;商汤也提出了基于大模型体系的绝影智能车舱产品。
图片
2.3 CV 大模型助力数据标注、仿真和感知
数据标注方面,大模型预标注+车载小模型学习微调的方式具有应用潜力。数据标注从人工标注 转为 AI 主导人工辅助,一方面大模型知识完备性好,精度高,泛化能力强;另一方面,自动驾驶 数据积累和标注复杂度提高使数据标注工作量快速增加,AI 大模型的应用有助于加速数据标注并 大幅降低数据生产成本。特斯拉从 2018 年以来不断发展自动标注技术,从 2D 人工标注转为 4D 空间自动标注,特斯拉人工标注团队规模不断缩小,2021 年超过 1000 人,2022 年裁员超过 200 人。小鹏汽车和毫末智行也相继采用自动标注工具,毫末智行表示,获取车道线、交通参与者和 红绿灯信息,人工标注成本约每张图 5 元,而毫末 DriveGPT 的成本仅 0.5 元。
场景构建是能力仿真系统的核心之一,生成式 AI 较传统建模渲染生成场景库速度大大提升。仿真 通过构建虚拟交通场景测试和验证自动驾驶系统,可在一定程度上取代实车路测,从而降低自动 驾驶系统开发测试成本。基于有限的路采数据智能化生成大量场景是仿真的关键,数据驱动的 AI 视觉仿真对自动驾驶系统开发落地具有重要价值。
人工智能生成内容(AIGC)技术在仿真、数据标注、座舱交互等系统的部署日益广泛。在仿真 方面,AIGC 技术可大量合成虚拟场景以用于模型训练和测试,从而提高自动驾驶技术精度和可 靠性;在数据标注方面,AIGC 技术可自动标注真实世界图像数据以用于训练 AI 模型;在座舱交 互方面,AIGC 技术可让车机系统与人的交互更自然,提高驾乘体验。 基于 BEV+Transformer 架构的感知算法应用带来传感器架构改变,大模型的本地化部署对车载 算力硬件提出要求。一方面,基于 AI 大模型的感知算法,使激光雷达传感器的重要性下降,在主 流的多雷达+多摄像头的传感器架构之外,提出了纯视觉传感方案,基于多个摄像头即可基本满 足复杂场景环境感知的需求。另一方面,大模型的本地化部署对边缘算力、数据传输带宽和速度 都提出了新的要求,车载芯片需进行相应升级。
2.4 多模态大模型逐步在自动驾驶和智能座舱中应用
多模态大模型和纯视觉大模型是感知算法的两个方向。数据驱动的感知算法快速发展,在是否使 用雷达数据方面存在技术分歧。目前主流自动驾驶车企的传感器系统可分为纯视觉传感器和多模 态传感器两类,纯视觉系统以特斯拉 FSD 系统为代表,以多个摄像头作为传感器,以视觉图像训 练 CV 大模型;多模态系统同时采集摄像头和高精度雷达的多模态数据并进行融合,以训练多模 态大模型。两种传感器系统在传感器数据融合算法上存在架构差异,但都使用 Transformer 模型 进行训练。 纯视觉大模型优势在于硬件成本低,图像数据信息量高,模型训练优化较快。特斯拉 CEO马斯克 认为,视觉具有更高的精度,随着视觉处理能力的提高,摄像头性能将会远远甩开雷达。
图片
多模态模型优势在于可充分发挥不同传感器性能特点,全场景适用性更强,安全性好。摄像头、 雷达等设备具有不同的数据形式和数据量,以往受算力和模型限制,不同类型数据多使用感知后 融合方案,不同传感器感知结果可能出现冲突,影响系统稳定性,故被认为不如纯视觉方案稳定。 受益于算力的进步和多模态大模型的开发与应用,基于多模态模型的融合感知技术受到国内外自 动驾驶厂商的广泛关注与研究。
多模态 AI 大模型可通过单模型实现感知、决策、控制等自动驾驶过程,有望成为高等级自动驾驶 汽车的主要操作系统。
此外,多模态大模型也有望用于智能座舱中的人机交互,融合语音、视觉、手势等多种交互方式, 满足用户在不同场景下的不同使用习惯。长安集度、吉利、岚图、红旗、长城东风日产零 跑等多家车企已经宣布将接入文心一言。长安逸达成为首搭文心一言的车型,将通过软件升级的 形式搭载到新车上。华为在 5 月宣布 AITO 问界 M9 将搭载 AI 大模型,小艺智慧助手将具有更好 的车载 AI 体验。讯飞“星火认知”大模型也有汽车领域相关的产品,可以实现车内跨业务、跨场 景人车自由交流。
三、 AI 大模型带来感知层、决策层和人车交互的变 化
3.1 自动驾驶感知层:大模型提升传感硬件的复杂度和精度
大模型的应用有望降低自动驾驶传感器硬件成本,加速自动驾驶普及。 自动驾驶传感器主要包括摄像头、超声波雷达、毫米波雷达、激光雷达、GPS 等。超声波雷达在 0.1-3 米间精度较高,但易受天气和车速影响,主要应用于智能泊车功能;摄像头是实现众多预警、 识别类高级辅助驾驶功能的基础;毫米波雷达使用波长为 1-10 mm 的电磁波,具有较强的穿透性, 可全天候工作,不受极端天气和夜晚影响,测距可达 200 m,但是分辨率有限,无法清晰辨别较 小的物体。激光雷达精度高(角/速度/距离分辨率),响应速度快,最远的探测距离高达500米, 但目前成本高,且抗干扰能力弱。
图片
目前,传感器路线尚无定论,主流自动驾驶厂商主要采取三种: 纯视觉方案:以特斯拉为代表。使用多颗摄像头为传感器,采用 Transformer+BEV 算法或 Occupancy 算法,成本较低,更接近人类驾驶;但较易受环境和天气影响,需要路外数据补充缺 乏的长尾场景。 视觉+毫米波雷达方案:毫米波雷达的全天候识别能力可提升自动驾驶系统在极端天气和幽暗环 境下的安全性。值得注意的是,根据太平洋汽车等平台,特斯拉最新自动驾驶系统 HW 4.0 可能 在车头重新搭载了 1 颗前向 4D 毫米波雷达。 视觉+毫米波雷达+激光雷达方案:是短期内实现高等级自动驾驶的关键。根据小鹏汽车、哪吒汽 车、智目科技、辰韬资本等公司发言人在第十届全球新能源汽车大会(GNEV11)上的讨论,短 期内(1-3 年)激光雷达对自动驾驶都是必要的,可以加快推出自动驾驶系统的时间,并提高安 全性。
大模型的应用有望降低自动驾驶传感器硬件成本,降低自动驾驶普及门槛。根据毫末智行分析, 自动驾驶 1.0 时期为硬件主导,通过增加硬件投入增强感知能力;2.0 时期为软件驱动,基于规则 的小模型逐渐应用到自动驾驶系统;而数据驱动的 3.0 时代已经开启,通过数据驱动算法模型快 速迭代,可减少对传感器硬件数量的依赖。例如华为 2023 年 4 月发布的最新自动驾驶 ADS2.0 系 统,较 ADS1.0 激光雷达减少 2 个,毫米波雷达减少 3 个,摄像头数量减少 2 个,但依靠 Transformer+BEV 算法的提升,自动驾驶功能增强,新增了城区车道巡航辅助增强和哨兵模式。 多模态大模型提升自动驾驶安全性。尽管纯视觉方案具有成本优势,激光雷达可为视觉方案提供 感知冗余。弗洛斯特沙利文认为,在未来几年内随着雷达硬件成本下降和多模态大模型的发展, 视觉+毫米波雷达+激光雷达方案凭借安全冗余的优势仍将在 L2+高等级自动驾驶中受到广泛选择。
AI 算法复杂度和精度提升,主流传感器算法从决策级融合算法逐渐向特征级融合算法过渡。决策 级融合算法是将各传感器数据分别进行特征提取并进行识别,最后融合感知信息以备决策。决策 级融合算法对不同传感器分别建立识别模型,其算法复杂度低、算力要求小,且便于进行不同传 感器组合,是目前自动驾驶车企采取的主流方案;但是该方法精度有限,在城市道路等复杂场景 下适用性较差。特征级融合算法是在多传感器特征提取的基础上进行特征融合并识别,较决策级 融合信息丢失更少,精度更高,同时所需算力有所提高但仍低于数据级融合算法。
Transformer 大模型的应用使数据驱动的感知算法快速发展。特斯拉 FSD 系统目前采用纯视觉传 感器,将多个摄像头获取的 2D 图像在 Occupancy 网络进行特征融合,再使用 Transformer 模型 进行训练;毫末智行将摄像头+雷达多模态传感数据进行前融合,并使用 Transformer 模型训练; 小鹏汽车亦采用多摄像头数据 BEV 空间+Transformers 融合方案。 在感知领域,现有自动驾驶厂商凭借实车数据积累占据大模型先机。主流厂商在城市领航辅助驾 驶(NOA)中采用 BEV 算法,特斯拉率先应用的 BEV+Transformer 感知大模型基于摄像头硬件 +CV 大模型,可实现“重感知、轻地图”乃至彻底“脱图”。多家国内主流自动驾驶车企已宣布 开发和量产基于 BEV+Transformer 模型的感知架构。百度于 2022 年 11 月推出 ANP3.0 系统,预 计将于 2023 年内实现量产,率先搭载该模型的集度 ROBO-01 车型预期于 2023Q3 交付;小鹏汽 车宣布在中国率先量产了基于 BEV+Transformer 模型的 XNET 架构,自 3 月开始城市 NGP 将在 广深沪多城市多车型加速落地;23 年下半年,基于 XNET深度学习算法的 XNGP 将彻底脱高精地 图;华为 ADS 2.0 架构已于 4 月落地,预计 Q2 将无图商用高阶智能驾驶方案推广到全国 15 城, Q4 推广到 45 城;毫末智行于 2023 年 4 月宣布 DriveGPT 认知大模型系统将首先搭载在 6 月正式 上市的新摩卡 DHT-PHEV;商汤于 2023 年 4 月宣布 BEV 环视通用感知算法已进入实车量产阶段,其中广汽埃安 aion lx plus 车型已于 2023 年 1 月上市;蔚来于 2023 年 5 月发布 Banyan2.0.0 系统,正式实行 BEV 模型量产上车,将于 6 月 OTA 升级多款 2022、2023 款车型;地平线等厂 商也纷纷宣布将在 2023 年内实现 BEV+Transformer 模型架构的落地。理想汽车将在很快向北京 和上海的内测用户交付不依赖高精地图的城市 NOA 功能,使用自研的类似 BEV 的神经先验 NPN 网络(Neural Prior Net),也在红绿灯信号识别、通行规划控制等方面引入大模型算法。理想也 将在下半年开放通勤 NOA 功能,可以在 1-2 周内完成上班通勤路线的激活。
图片
数据驱动的大模型落地推动传感器硬件发展。摄像头分辨率提升有助于感知模型精度提高,但同 时也会带来计算量的增加,提升算力和传输带宽需求。特斯拉HW3.0系统使用8颗分辨率为1.2M (1280x960)摄像头,总算力约为 144TOPS;据媒体报道,HW4.0 系统将使用 12 颗分辨率为 5.4M(2896x1876)摄像头,总算力约为 500TOPS。国内理想 one, 蔚来 ET7,小鹏 SUVG9, 极氪 001 等自动驾驶高端车型纷纷实装 8M 摄像头,以达到更高的感知精度和更远的感知距离。
4D 毫米波雷达落地,毫米波雷达有望迭代。 4D 毫米波雷达在传统毫米波雷达的距离、方位、速 度三个维度基础上增加了高度,从而具有更高分辨率和一定成像能力,有望取代3D毫米波雷达。 据高工智能汽车研究院预计,2023 年中国乘用车市场前装 4D 毫米波雷达将突破百万颗,到 2025 年 4D 成像雷达占全部前向毫米波雷达的比重有望超过 40%。4D 毫米波雷达可与纯视觉方案结合, 提高感知精度;也可部分替代激光雷达,应用于侧向感知或低等级自动驾驶的前向感知中,提供 兼具成本和精度的硬件解决方案。例如英特尔子公司 Mobileye 计划 2025 年在侧向感知中使用毫 米波雷达代替激光雷达。
高线束激光雷达在角分辨率和点云数量上较 4D 毫米波雷达仍具有优势。高线束(32 线以上)激 光雷达通过对周围环境扫描能够形成 3D 图像模型,可在横向 120°视场范围生成百万/秒的点云 量,满足高级别自动驾驶的感知需求;而 4D 毫米波雷达虽具有一定成像能力,但目前生成点云 仅可达到十万/秒的数量级,角分辨率也逊于激光雷达。对于感知大模型来说,数据量至关重要, 因此,短期内对于多模态感知模型,高线束激光雷达仍无法完全被毫米波雷达取代。 激光雷达技术从机械式向全固态升级,降本有望。MEMS、FLASH 激光雷达已逐步走向市场,有 望降低激光雷达成本并提高稳定性,从而为激光雷达在自动驾驶领域的应用创造更广阔空间。 超声波雷达成本低廉,但工作距离很近,特斯拉、毫末智行等公司已采用视觉方案代替超声波雷 达。超声波雷达主要应用于泊车辅助系统,进行低速高精度下的距离测量,基于视觉的 Occupancy 网络+Transformer 模型有望替代超声波雷达实现该功能。但对于 L0-L2 低级别辅助驾 驶车辆,装载超声波雷达仍是更具成本性和安全性的选择。
综合来讲,视觉方案和视觉+激光雷达融合感知方案均可使用 AI 大模型以提高感知精度,但两者 对硬件有着不同的需求: 纯视觉方案中,摄像头分辨率和成像质量要求高,已有 12M、15M车载摄像头处于研发状态;4D 毫米波雷达可作为视觉方案的辅助,提供前向和侧向感知,提高感知精度和安全性。 视觉+激光雷达融合感知方案中,摄像头参数要求亦逐步提高,4D 毫米波雷达可部分取代激光雷 达应用于侧向感知,激光雷达仍作为前向感知的关键传感器,车载激光雷达将从机械式向全固态 升级。
两种技术路线均需要多个摄像头进行视觉传感,两者后续发展的关键在于:多模态大模型较纯视 觉模型的发展速度,激光雷达的降本趋势等。
3.2 自动驾驶决策层:基于学习的决策规划算法走向主流,AI 认知大模型上线
相较于传统基于规则的决策规划算法,基于学习的决策算法具有更强的灵活性和智能性。基于学 习的决策算法,即通过对环境样本进行自主学习,由数据驱动建立行为规则库,利用不同的学习 方法与网络结构,根据不同的环境信息直接进行行为匹配。进一步的,基于学习的决策算法可分 为数据驱动型学习方法和强化学习方法。 数据驱动型学习依靠自然驾驶数据直接拟合神经网络模型,以达到自动驾驶行为的高决策水平。 其需要海量训练数据,数据收集成本和耗时高,难以超越驾驶员水平。 强化学习方法尚处摸索阶段,有望进一步提高车机行为决策智能水平。强化学习方法让智能体作 为行为决策主体,以试错方式进行环境交互,并基于每一步行动后的环境反馈调整智能体行为。 通过试错式学习,智能体能够在动态环境中自己做出一系列行为决策,达到优异的自动驾驶能力。
图片
认知决策 AI大模型已开始落地。23年 4月11日,毫末智行发布了自动驾驶大模型毫末 DriveGPT 雪湖·海若,相关车型新摩卡 DHT-PHEV 于 6 月 1 日正式上市,毫末 DriveGPT 参数规模 1200 亿,预训练阶段引入 4000 万公里量产车驾驶数据,优化阶段采用人类反馈强化学习(RLHF)技 术引入 5 万段人工精选的困难场景接管 Clips 数据。DriveGPT 定义 50 万个新的 tokens,包括障 碍物、车道线、行人等,作为一种全新的“自动驾驶语言”。其输入是感知融合后的文本序列, 输出是自动驾驶场景文本序列。模型目标为实现端到端驾驶,希望实现四大应用能力,包括智能 驾驶、驾驶场景识别、驾驶行为验证、困难场景脱困。
百度于 2022 年 11 月发布了预测决策多任务大模型和离线智能仿真系统研究进展;商汤于 2023 年 4 月发布的日日新大模型体系中所包括的感知决策一体化大模型;理想 CEO 在致员工的内部信 中提出2023年底落地端到端城市辅助驾驶,预计届时有可能实装包括认知决策能力的端到端、多 模态 AI 大模型。
3.3 人车交互领域:语言大模型落地在即
NLP 语言大模型主要将应用于智能座舱的语音交互系统。通用型 NLP 模型以车载语音助手或集 成化车机操作系统的形式搭载在智能座舱,主要功能包括对话式交互、逻辑推理、策略规划和知 识问答。
四、 投资分析
4.1 韦尔股份:车载 CIS 积累深厚,汽车电子领域收入增长迅 速
韦尔股份是全球排名前列的中国半导体设计公司。韦尔股份在车用图像传感器领域有着多年的研 发经验,近年来,韦尔股份在原有的欧美系主流汽车品牌合作基础上,也大量的导入国内传统汽 车品牌及造车新势力的方案中。2022 年,韦尔股份汽车电子领域实现收入 36.3 亿元,较 2021 年 增长 57%。 AI 感知大模型的应用成为实现 L2+自动驾驶的关键,随着自动驾驶技术的发展和应用场景的复杂 化,车用图像传感器在数量和单颗价值量将有望上涨,预期韦尔股份将在 AI 感知大模型的应用过 程中受益,汽车电子领域收入增长。
4.2 舜宇光学科技:车载镜头行业龙头地位稳固,激光雷达等 新产品加大研发投入
舜宇光学科技是中国领先的光学产品制造企业。2022 年,随着高级驾驶辅助系统搭载率的进一步 提升以及自动驾驶等级的不断提高,舜宇光学车载镜头的全球市占率持续提升,进一步巩固了行 业龙头地位。2022 年年报显示,舜宇光学科技的车载镜头出货量接近 1000 万件,较 2021 年增长约 16%,全球范围内市场占有率仍居于首位。舜宇光学车载模块获得了多个海内外知名客户的 定点项目,市场开拓持续取得突破。
图片
与此同时,舜宇光学2022年内加大了对激光雷达、抬头显示及智能车灯等新产品研发和市场推广 的投入,为抢占市场先机奠定了良好基础。激光雷达方面,舜宇光学专注于光学组件和模块业务, 新获得的定点项目数量快速增加,并作为全球首家企业量产玻璃材质的多边旋转棱镜,持续为激 光雷达厂商赋能。 随着AI感知大模型的应用,车载镜头需求和激光雷达需求都将有所增长。预期舜宇光学将在AI感 知大模型的应用过程中受益。
4.3 晶晨股份:智能座舱芯片
公司的汽车电子芯片包括车载信息娱乐系统芯片和智能座舱芯片。座舱智能化、网联化的趋势带 动芯片计算和数据处理能力、图像和视频处理能力、可靠性等需求提升,为公司带来新的发展契 机。 公司汽车电子芯片已进入国内外多个车企,并成功商用,如宝马林肯Jeep极氪创维。该 系列芯片采用先进制程工艺,内置最高 5 Tops 神经网络处理器,支持多系统多屏幕显示,功能覆 盖影音娱乐、导航、360 全景、个性化体验、人机交互、个人助理、DMS(Driver Monitor System, 驾驶员监测系统)等,符合车规级要求,部分产品已通过车规认证。 公司把汽车电子做 为长期战略,将持续投入研发,充分发挥既有优势(系统级平台、智能化 SoC),不断扩充新技 术、推出新产品。
4.4 其他公司
思特威:22 年思特威的汽车业务收入增长 155%至 2.26 亿元,占主营收入的比例超过 9%。公司 在 22 年构建了覆盖汽车电子全应用场景的 CIS 产品布局,包括 360 度全景影像、行车记录仪、 舱内监控、流媒体/电子外后视镜、ADAS/AD 等。据 TSR 统计,公司在 2021 年首次进入了“全 球 CIS 车载市场出货量 Top 10 厂商”排行榜,位列全球第 4 名。
裕太微:公司是境内为数不多可以大规模供应千兆高端以太网物理层芯片的企业,已开发了系列 千兆物理层芯片,产品性能和技术指标上基本实现对博通、美满电子和瑞昱同类产品的替代,成 功打入国内众多知名客户供应链体系。公司自主研发的车载百兆以太网物理层芯片已通过 AECQ100Grade1 车规认证,并通过德国 C&S 实验室的互联互通兼容性测试,陆续进入德赛西威等国 内知名汽车配套设施供应商进行测试并已实现销售。公司自主研发的车载千兆以太网物理层芯片 已工程流片。
北京君正:公司存储、模拟芯片业务在汽车应用上实现稳定供货,全球大部分知名的 Tier 1 厂商 均为公司客户,产品面向整个汽车市场的各类车型,随着汽车智能化程度提升也将更有利于公司 业务拓展。
联创电子:车载光学高速发展,全面切入汽车产业供应链。公司重点发展光学镜头及影像模组、 触控显示器件等新型光学光电子产业,布局和培育集成电路模拟芯片产业。公司车载镜头业务发 展势头良好,已全面切入国内外几大汽车龙头品牌客户和全球几大主要汽车 Tier1 客户供应链。 车载镜头及车载影像模组业务收入 22 年增长 400%以上至 7.67 亿元。合肥智行车载影像模组项 目和桐城联创玻璃镜片项目均顺利投产,合肥联创基础建设进展顺利。
依顿电子:公司汽车 PCB 业务 22 年营收占比已超过 50%,已与德国大陆汽车(Continental)、 法雷奥(Valeo)、均胜电子(Preh)、博世(Bosch)、安波福(Aptiv)、李尔公司(Lear)、 小鹏汽车、宏景智驾等国内外头部汽车零部件企业形成了稳定合作关系。
沪电股份:22 年汽车 PCB 营收近 19 亿元,23 年初向汽车 PCB 子公司沪利微电增资约 7.76 亿元 以扩充汽车高阶 HDI 产能,其毫米波雷达、采用 HDI 的自动驾驶辅助以及智能座舱域控制器、埋 陶瓷、厚铜等新兴产品市场迅速成长。控股子公司胜伟策将加快 p2Pack 技术开发与市场推广, 争取在 2023 年四季度量产应用于 48V 轻混系统的产品,加快推进应用于 800V 高压架构的商业化 应用。
富瀚微:随着前装芯片产品在车内 CMS/DMS/OMS/AVM/DVR 应用的逐渐成熟,公司已获得多家 头部 Tier1 产品导入,替代了国外厂商的方案。
龙迅股份:公司多款车载桥接芯片量产,已有 6 颗芯片通过了车规级体系 AEC-Q100 认证,公司 已拓展终端客户包括宝马、博世、长安、比亚迪、理想等;公司车载 SerDes 项目进展顺利,计 划在 Q2 流片,Q3 末样片可以回来,Q4 开始调试和推广。
徕木股份:公司汽车连接器产品供应法雷奥、麦格纳、科世达、比亚迪、宁德时代、蜂巢电驱、 汇川技术、均胜电子、马瑞利等知名 tier1,应用于大众、通用、奔驰福特丰田本田、上汽、 一汽、比亚迪、长城、吉利、日产、小鹏、理想、蔚来、金康等整车。22 年 7 月募集 7 亿元将新 增 500 万只新能源汽车高电流电压连接器、1,200 万只(套)辅助驾驶模块连接器的年产能。公 司计划拓展 800G 光模块壳体产品、1500V 储能连接器等业务。
海康威视:海康汽车电子持续提升在乘用车前装市场竞争力:在视觉传感器方面,5M 和 8M 摄像 头在多家国内头部车企平台化车型中量产;在智能驾驶方面,公司聚焦超声波和视觉融合感知技 术和座舱视觉感知技术,扩大泊车产品和 VIMS 产品投入,实现多家国内头部车企的 10 余个项目 量产落地,新定点项目份额国内领先;在行泊一体高阶智能驾驶产品方面,公司融合视觉、超声 波和毫米波雷达等感知能力,为客户提供覆盖各层级需求的智能驾驶域控制器产品,22 年取得量 产定点突破。公司持续推进与合资和国际品牌的合作,聚焦 L2+智能驾驶场景,打造覆盖各层级需求的智能驾驶域控系统,积极探索智驾和座舱融合应用的解决方案。此外,海康也在乘用车后 装市场和商用车市场持续创新。
大华股份:子公司华锐捷专注于智能车载产品和行业解决方案,结合车载相机、雷达、域控等产 品和 AI、感知数据分析与处理等技术,已量产 L2+级辅助驾驶系统、全自动泊车系统、1R1V 系 统、智能座舱系统等,并获得自主品牌头部客户的项目定点。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
精选报告来源:【未来智库】。