【东方证券】电子行业深度报告:英伟达GTC大会在即,持续关注AI进展.pdf

2024-03-17
28页
2MB

1. 全球领先的算力平台,业绩大幅提升


1.1 四项主营业务,打造行业领先


公司全年收入翻倍,数据中心迎来强劲增长。公司 2024 财年(截止 24 年 1 月末)的收入为 609 亿美元,同比增长 126%。公司产品用于多个下游,主要有游戏、数据中心、汽车、专业可视化 四个业务板块。数据中心在 2024 财年的收入为 475 亿美元,同比增长 217%;其中,计算收入增 长 244%,网络业务收入增长 133%。库存水平正常化和需求增长,合作伙伴销售量增加,推动游 戏收入增长 15%,达 104 亿美元。专业可视化收入为 16 亿美元,同比增长 1%左右。随自动驾驶 平台的增长,汽车收入增长 21%至 11 亿美元。


公司数据中心平台由计算和网络产品组成。计算产品包括超级计算平台和服务器,还包括 NVIDIA AI Enterprise 软件、DGX 云服务,以及越来越多的加速库、API、SDK 和特定领域的应 用程序框架。网络产品包括 InfiniBand 和以太网的端到端平台,如:网络适配器、电缆、DPU 和 交换系统,以及完整的软件堆栈。 以 GPU 为基础,业务不断拓展。随着人工智能和高性能计算工作负载变得非常大,数据中心已 经成为新的计算单元,GPU 是公司加速计算平台的基础,擅长并行工作负载,例如神经网络的训 练和推理。除 GPU 之外,公司数据中心平台业务在 2022 财年扩展到 DPU,在 2024 财年扩展到 CPU,优化整个计算、网络和存储堆栈,以提供数据中心规模的计算解决方案,推出 NVIDIA DGX Cloud 平台,包括基于云的人工智能基础设施和软件,目前公司已与领先的云服务提供商合 作。


游戏平台技术领先,RTX 产品将加速 AI 应用普及。游戏平台利用 GPU 和先进的软件,游戏运行 更流畅,图形质量更高。公司开发的 NVIDIA RTX 具有实时、电影质量渲染的光线跟踪技术,采 用深度学习超级采样技术,通过 AI 技术提升游戏体验。公司拥有超 1 亿台支持 AI 的 PC 的安装基 础,超过 500 个 RTX 支持 AI 的应用程序和游戏,以及强大的开发工具,RTX 已成为 AI PC 的领 导者。 多产品助力市场规模大。公司针对游戏市场的产品包括用于游戏台式机和笔记本电脑的 GeForce RTX 和 GeForce GTX GPU,用于在低功率设备上玩 PC 游戏的 GeForce NOW 云游戏,以及用 于游戏机的 SoC 和开发服务。


多平台提供服务,专业可视化业务布局广泛。公司与独立软件供应商密切合作,为其产品进行优 化,从而服务于专业可视化市场。公司 GPU计算平台提高了生产力,并为设计和制造、数字内容 创建等领域的关键工作流程引入新功能。RTX 平台可实时使用光线追踪来渲染电影、物体和环境,允许专业人员使用 RTX GPU 和软件优化工作流程。Omniverse 作为开发平台和操作系统,可用 于构建虚拟世界仿真应用程序;工业企业正采用 Omniverse 的 3D 和仿真技术,将实体资产、流 程和环境数字化。 汽车业务达成广泛合作,DRIVE Hyperion 服务于自动驾驶技术。公司汽车产品由自动驾驶和车 载座舱计算平台解决方案组成。公司在 AI 领域的技术领先,与汽车生态系统中的数百家合作伙伴 合作,包括汽车制造商、tier 1 供应商、汽车研究机构等,共同为汽车自动驾驶技术开发并部署 AI 系统。DRIVE Hyperion 包括 DRIVE AGX 计算硬件、全套支持全自动驾驶功能的参考传感器,以 及全套开放、模块化的 DRIVE 软件平台,用于自动驾驶、地图和停车服务,为自动驾驶市场提供 端到端解决方案。 DRIVE Sim 方案使得车辆功能更新更流畅。Omniverse 软件的可扩展数据中心仿真解决方案 DRIVE Sim,可用于数字驾驶舱开发以及自动驾驶平台的测试和验证,使汽车能够在车辆的整个 生命周期内接收无线更新,以增加新的特性和功能。


1.2 AI 成为有力驱动,业绩全面受益


为产品增加 AI 功能、开发大模型,AI 成为新焦点。公司计算解决方案包括 AI 服务器中的三个主 要处理单元 GPU、CPU 和 DPU。公司将继续在 GPU 架构中添加 AI 特定功能,进一步扩大领导 地位。除 DGX Cloud 外,NeMo 利用和第三方创建的开源和专有 LLM,构建企业大语言模型。公 司推动生成式 Al 应用于超过 1 亿台 Al-Ready 的 RTX PC 和工作站。 数据中心引入加速网络平台、推理平台、DGX 云。数据中心业务中,公司发布 AI 加速网络平台 Spectrum-X,并推出 AI 推理平台,将全栈推理软件与 Ada、Hopper 和 Grace Hopper 处理器相 结合,优化生成式人工智能、LLM 和其他 AI 工作。引入 NVIDIA DGX 云,帮助企业创建和运营 定制的大型语言模型和生成式 AI 模型。 构建 AI 开发者平台,LLM 运行效率显著提升。在 PC 上本地运行生成式 Al 需要正确的开发工具 来调整和优化 Al 模型。公司为开发人员提供端到端的平台,用于为 RTX PC 和工作站构建和部署 Al 应用程序。其中 ACE(Avatar Cloud Engine)使开发人员能够在游戏中添加智能、动态的数字 化身;Al Workbench 可简化对流行库的访问,如 Hugging Face、GitHu 和为 Windows 打造的 NGC Tensor RT-LLM,使得在 RTX PC 上运行 LLM 的速度提升 5 倍。


游戏领域推出多款 AI 相关产品与服务。推出基于 Ada Lovelace 架构的 GeForce RTX 4060 和 4070 GPU,并宣布使用 AI 驱动的游戏 Avatar 云引擎,并推出了 DLSS 3.5 Ray Reconstruction。 此外,公司还发布了面向 Windows 的 TensorRT-LLM,并推出 GeForce RTX 40 系列超级 GPU。 使用 NVIDIA DLSS、光线追踪和其他 NVIDIA RTX 技术的 AI 驱动 RTX 游戏和应用程序达到 500 个的里程碑。 AI助推,多领域达成合作。与AWS就新的 AI基础设施、软件和服务进行战略合作,公司和 AWS 将合作在 AWS 产品中承载 NVIDIA DGX Cloud,以加速运行参数超 1 万亿的尖端生成式 AI 与 LLM 模型。AWS 将基于 NVIDIA H200、L4 和 L40S GPU 推出另外三个新的 Amazon EC2 实例。 同时,公司开发出 NVIDIA BioNeMo,一款生成型 AI 平台,与 Recursion 和 Amgen 在医疗保健 领域达成合作。


公司将长期投入 AI 研发,预期算力将提升 100 万倍。英伟达 CEO 黄仁勋 2024 年 3 月参加其母 校斯坦福大学商学院SIEPR经济峰会以及View From The Top系列活动。强调在未来的10年里, 公司将会把深度学习的计算能力再提高 100 万倍,从而让 AI 计算机不断训练、推理、学习、应 用,并持续改进,将超级 AI 转变为现实。


2. 数据中心业务增长,产品矩阵不断扩充


2.1 数据中心业务稳步增长


算力需求激增,驱动英伟达的数据中心业务飞速增长。英伟达的数据中心业务致力于为超算数据 中心、企业数据中心、云计算、AI 大模型训练和边缘计算等计算密集型任务提供软件+硬件的全 面解决方案。GPU、CPU、DPU三芯矩阵为算力需求提供强力的硬件支持,CUDA则为用户提供 了全面的软件生态。 AI 推理创造数据中心收入增量,汽车数据中心占比提升。数据中心业务 2024 财年四季度营业收 入环比提升到 184 亿美元,创历史新高;全年收入为 475 亿美元,比 2023 财年增长 217%。随着 自动驾驶算法转向视频转换器,以及越来越多的汽车配备摄像头,预计汽车数据中心处理需求将 大幅增长。在 2024 财年,大约 40%的数据中心收入用于 AI 推理。在 2024 财年第四季度,大型 云服务提供商为内部工作负载和外部客户提供支持,占数据中心收入的一半以上。


2.2 GPU+CPU+DPU 三芯矩阵


加速系统是重塑 AI 计算。服务器和工作站将配备计算加速器,为使用 AI、可视化和自主机器等现 代应用提供支持。其中许多系统还会配备数据处理器,用以加速网络、存储和安全服务。公司借 助基于 GPU、DPU 和 CPU 三种新一代架构构建加速计算平台,凭借涵盖性能、安全性、网络等 领域的前沿技术,重塑 AI 时代的数据中心。


高性能 GPU 为 AI 模型训练加速。根据应用场景的不同,AI 服务器可以分为训练和推理两种类型。 训练型服务器对芯片算力要求更高,而推理型服务器对算力的要求相对较低。 在训练端,目前有 V100、A100、H100 三款 GPU。1)V100 基于 Volta 架构,采用台积电 16nm 工艺,引入 NVLink 技术助力实现 GPU 和 CPU 之间高速通信,加速大规模模型的训练速度。2) A100 基于 Ampere 架构,采用台积电 7nm 工艺。搭载第三代 Tensor 核心,进一步提升 AI 推理 和训练能力。3)H100 基于 Hopper 架构,采用台积电 4nm 工艺,集成 800 亿个晶体管。H100 中还搭载 Transformer 引擎,该引擎为 Tensor 核心的变体,专用于 Transformer 训练和推理,使 大模型训练速度提升 6 倍。此外,H100 更大的显存和显存容量进一步满足了大语言模型的训练需 求。在最新 MLPerf 训练基准测试中,搭载 3584 颗 H100 的云端计算系统完成 GPT-3 模型的训练 时长仅 11 分钟。 H100 市场需求大,预计推出 H200 带来性能的进一步提升。英伟达在 AI 芯片市场的市占率超过 80%,一张 H100 型号的 AI 芯片在 Ebay 上的价格甚至炒到了 4.5 万美元,而据英伟达在 2024 财 年 Q4 财报电话会上透露,公司将在二季度推出的 H200 芯片的推理性能 H100 的两倍。 B100 即将发布,带来性能全面升级。公司将在 GTC 2024 公布采用 Blackwell 架构的最新芯片 B100 GPU。B100 相较采用 Hopper 架构的 H 系列产品,整体效能均进行大幅提升,HBM 内存容 量比 H200 芯片高出约 40%,同时 AI 效能为 H200 GPU 两倍以上、H100 的四倍以上。


推理端 GPU 全面覆盖 AI 应用场景。目前英伟达在推理端的产品主要包括 A2、A10、A30、T4、 L4、L40。1)A2:面向智能视频领域,为推理端的入门产品。该芯片具有体积小,低功耗的特 点,可在数据中心密集部署。2)A10:面对数据中心轻中量级的图形需求,用于加速深度学习推 理,交互式渲染和云游戏。3)A30:该芯片能够为行业标准服务器提供通用的性能,支持广泛的 AI 推理和主流企业级计算工作负载,如推荐系统、对话式 AI 和计算机视觉。5)A40:基于 Ampere 架构,主要面向数据中心的计算密集型工作负载,例如数据科学、深度学习和机器学习。 相比较与其它推理端 GPU,A40 拥有更高的功耗。4)L4:基于 Ada Lovelace 架构,拥有显著的 能效比优势。并且 L4 在提高算力的基础上继承了 T4 小体积的优势,可在数据中心大规模部署。 同时,L4 支持视频 AV1 编码/解码,这对于与视频相关的云服务至关重要。


Grace CPU 是英伟达的第一个数据中心 CPU,于 23 年下半年投入生产。Grace CPU 配合 GPU 使用,具有高带宽低功耗内存的优势。Grace CPU 搭载 NVLink Chip-2-Chip(C2C)技术, Grace CPU 之间或与 Hopper GPU 之间的双向带宽可高达 900GB/s,有效地提升了计算效率,可 组成 Grace Hopper 超级计算架构。 Grace CPU 较传统 X86 CPU 更适合 AI 运算。在真实工作负载测试中,Grace CPU 超级芯片在 相同的功率范围内运行主流数据中心CPU应用的性能比X86处理器提高2倍。相比于X86 CPU, Grace 能提供更高带宽和更低能耗。Grace Hopper 系统的 GPU-CPU 双向链接带宽最高能达到 900GB/s,远高于传统 X86 CPU + Hopper GPU 结构的 128GB/s。


新一代 GH200 Grace Hopper 超级芯片平台,迎接加速计算和生成式 AI 时代。公司于 2023 年 8 月 8 日发布新一代 NVIDIA GH200 Grace Hopper 平台,基于全球首款搭载 HBM3e 处理器的 Grace Hopper 超级芯片,专为处理大语言模型、推荐系统、矢量数据库等全球最复杂的生成式 AI 工作负载而构建。 新平台性能提升,可高效运行更大模型。该平台采用双配置,提供的内存容量和带宽比当前产品 分别增加了 3.5 倍和 3 倍,包括一个拥有 144 个 Arm Neoverse 内核、8 petaflops 的 AI 性能和 282GB 最新 HBM3e 内存技术的单个服务器。Grace Hopper 超级芯片可通过 NVLink 与其他超级 芯片连接,协同工作,部署大型生成式 AI 模型,使 GPU 可以完全访问 CPU 内存,在双配置中可 提供总计 1.2TB 的快速内存。HBM3e 内存比 HBM3 快 50%,可提供总计 10TB/s 的带宽,使得 新平台能够运行比上一版本大 3.5 倍的模型。


公司率先开发 DPU,具备更加高效、节能等优势。数据处理单元(DPU)集成了专用的网络加速 模块,用于完成数据中心中网络协议处理、网络安全和存储控制等任务,DPU 提供的高速网络能 有效减少数据传输过程中的算力损耗。DPU 比通用 CPU 更有效地运行数据中心基础设施任务, 且 DPU 上的 CPU 内核往往比一般服务器 CPU 更节能,同时可以直接访问网络管道。因此,DPU 内核可更有效地执行遥测、深度数据包检测或其他网络任务。英伟达率先将 DPU 定义为数据中心 的“第三颗主力芯片”。 借助 BlueField 实现数据中心转型,DPU 迭代加速。目前英伟达在产品上具备先发优势,自英伟 达收购 Mellanox 以来,英伟达先后推出了 3 代 DPU 芯片,包括:BlueField DPU,BlueField2.DPU和 BlueField-3 DPU。其中最新的 BlueField-3 DPU于 2022年推出,该芯片使用 ARM核, 能提供最高之 400Gb/s 的网络传输速度。英伟达希望 DPU 逐步取代当前主流的英特尔和 AMD 主 导的低端 X86 CPU。


2.3 DGX 全力构建 AI 基础设施


DGX 构建 AI 基础设施,GH200 超算系统巩固行业领先地位。NVIDIA DGX 是 NVIDIA 推出的一 系列集成式深度学习系统,旨在为 AI 工作负载提供高性能的计算和数据处理能力。DGX 系列产 品集成了 AI 计算芯片、高速互连技术和软件工具,以加速深度学习训练和推理任务,大大简化用 户部署和管理服务器的过程,具备可扩展性,可通过连接多个 DGX 系统以构建更大规模的 AI 集 群。公司 23 年 5 月 29 日发布了 DGX GH200 超算系统,搭载了 256 块 Grace Hopper 超级计算 芯片,拥有 18432 个 CPU 核心和 144TB 显存。 通过高速互联技术保证芯片间的数据传输,为 AI 模型提供内存支持。其中 NVLink C2C负责 CPU 与 GPU 之间的数据通信,NVLink4 和 NVSwitch 负责 GPU 之间的数据传输。高性能芯片和互联 技术的集成使 DGX GH200 拥有极为强大的性能,可处理大型推荐系统、生成式 AI 和图形分析领 域的 TB 级模型,为超大 AI 模型提供具备线性扩展能力的大型共享内存空间。


3. 游戏业务技术领先,业绩重回增长趋势


3.1 游戏业务回升,新一代 RTX 40 系显卡或成拐点


独立显卡出货量增长,游戏业务重回增长。英伟达 2024 财年的游戏收入为 104 亿美元,比 2023 财年增长 15%。24财年第一季度游戏业务营收仅 22.4 亿美元,同比下降 38%,主要原因有:1) 疫情期间游戏业务爆发式增长,导致消费者当期设备升级的需求低。2)下游 PC 市场去库存,其 中绝大部分库存搭载上一代 RTX 30 系独立显卡,影响独立显卡销售。24 财年第三、四季度,公 司独立显卡出货量以及游戏业务收入均有所回升,其中第四季度独立显卡出货量 760 万块,公司 游戏业务总收入 29 亿美元。


英伟达独立显卡领域龙头地位稳固。根据游戏平台Steam每月公布的硬件调查数据,英伟达GPU 稳居排名第一位置,在 2024 年 2 月公司 GPU 的市场占有率约为 77%,AMD 为 15%,英特尔为 8%,其他公司在 PC 端 GPU 赛道与英伟达仍有较大差距。 新一代 RTX 40 系显卡驱动业务复苏。随着 PC 去库存进程即将结束,渠道库存水平正常化,合 作伙伴的销售量增加,公司新一代显卡的销售量回升。RTX 4060Ti 16G,RTX 4060 两款独立显 卡在 2023 年 5 月发售,这两款显卡均对应中端市场,具有极高的性价比优势。RTX4060Ti 16G 和 RTX 4060 的发售有望持续带动英伟达未来的游戏业务营收增长。


电影级光线追踪技术进一步巩固行业领先地位,产品迭代增强功能。目前英伟达 PC 端 GPU 产品 包括 GeForce RTX 和 GeForce GTX 两个系列。自英伟达 20 系 PC 端显卡开始,公司将其先前的 GTX 系列更名为 RTX。其中 GeForce RTX 平台搭载了专用的光线追踪硬件 RT Core,每秒可投 射超 10 GB 光线,在游戏中实现电影级实时照明。2024 年 3 月,据博板堂透露,公司已彻底停产 GeForce GTX 16 系列 GPU,预计 1 到 3 个月消化完库存,RTX 系列产品已经完整覆盖了低/中/ 高端的独立显卡市场。公司在 CES 2024 上推出全新 GeForce RTX 40 SUPER 系列显卡、全新 RTX 游戏、G-SYNC 技术、生成式 AI 领域创新、针对 RTX 视频超分辨率的全新增强功能。


Ada Lovelace 架构为新一代显卡表现带来质变。Ada Lovelace 是英伟达推出的第三代 RTX 架构。 作为 RTX 40 系显卡的核心,Ada 架构使新一代显卡在性能和效率上都实现了质的飞跃。该架构 搭载的第四代 Tensor Cores 具有高达 1.32 Petaflops 的 FP8 张量处理性能,较上一代性能提升超 过 5 倍。同时该架构基于台积电 4nm 制程工艺,实现了能效比较上一代 2 倍的提升。并且更高的 能效比意味着新一代 RTX 40 系 GPU 将在笔记本电脑端带来更强的性能释放。


3.2 DLSS 3 技术为游戏体验带来质变


DLSS 3 具备 AI 技术优势,推动游戏业务发展。DLSS 3 技术由最新一代 GeForce RTX 40 系 GPU 所搭载的 Tensor 核心和光流加速器支持。该技术能够预测场景中帧与帧之间的运动变化, 从而通过 AI 实现帧生成技术,提高帧率的同时保持图像质量。DLSS 3 能通过 AI 重建 7/8 的显示 像素,与没有 DLSS 相比,游戏性能提升了 4 倍。该技术将对 PC 端的游戏体验带来显著提升, 使玩家能够不受硬件限制,仅凭 AI 计算提高游戏帧率,未来有望刺激 PC 端的换机需求,为游戏 业务创造增量。


3.3 布局云游戏,扩大游戏业务增长空间


GeForce Now,新一代的云端游戏解决方案。GeForce Now 是公司推出的一项云游戏流媒体服 务,允许用户通过互联网流式传输游戏,而无需下载或安装游戏本身。用户可以通过各种终端设 备(如 PC、Mac、笔记本电脑、智能手机和电视等)访问 GeForce Now,而不用受制于终端设 备本身的硬件条件。基于英伟达性能强劲的 GeForce RTX 系列 GPU 和 Game Ready 驱动, GeForce Now 能给玩家提供更好的游戏体验。此外,与其竞争对手谷歌 Stadia 和微软 xCloud 不 同,GeForce Now 不受游戏平台限制。在 Stadia 和 xCloud 游玩的玩家只能与同平台的玩家互动, 而使用 GeForce 的玩家可以进行跨平台互动。 云游戏市场前景广阔。根据 Statista 提供的数据,2025 年云游戏市场规模预计达到 81.7 亿美元, 2022-2025 年间的 CAGR 达约 51%。受制于网络延迟等因素,现阶段的云游戏市场成熟度有待提 升,发展前景广阔,英伟达提前布局云游戏领域有望在未来获得更多市场份额。


4. 专业可视化业务略有提升,应用场景广泛


4.1 专业可视化业务表现稳定,FY24Q4 营收同比提升


与独立软件供应商 ISV 密切合作,为客户提供软硬件结合的解决方案。其中硬件层面包括 RTX 系 列 GPU,用于为软件层的图形渲染提供算力支持。软件层面为 Omniverse 协同工作平台。专业可 视化业务为设计、制造和数字内容创建等多领域的关键工作流程进行优化。其中设计和制造包括 计算机辅助设计、建筑设计、消费品制造、医疗仪器和航空航天。数字内容创作包括专业视频编 辑和后期制作、电影特效和广播电视图形。2024 财年的专业可视化收入为 16 亿美元,比 2023 财 年增长 1%;24 财年四季度实现营收 4.63 亿美元,同比增长 105%。


4.2 Omniverse 助力构建全新生态


Omniverse 打造全新协同工作平台,布局元宇宙。Omniverse 是由英伟达基于 Universal Scene Description(USD)构建的虚拟协作和仿真平台,能将设计师、工程师和其他创作者连接到同一 个虚拟平台中实时协同工作。


Omniverse 平台优势明显。1)Omniverse 可连接不同设计工具和软件,如 Autodesk Maya、 Adobe Photoshop 等,使其能够实时传输数据和更好地集成工作流程。2)作为开放性的平台, 向开发者提供了 API 和 SDK,使开发者能够扩展和定制平台,与其他工具和系统进行集成。结合 构建 CUDA 生态系统的成功经历,未来可能构建出基于 Omniverse 的完整生态系统。3)基于 RTX 技术,Omniverse 能够进行实时的物理仿真和模拟,在虚拟世界中复现现实世界中的元素, 例如光线、重力、碰撞等。 应用场景广阔,助力企业提高生产效率。Omniverse 的应用场景覆盖了建筑工程,媒体和娱乐, 制造业,超算行业以及游戏开发。目前宝马已经开始应用 Omniverse 优化工作流程,该技术目前 能完全模拟宝马 31 座工厂的所有元素,包括工人、机器人、建筑物等,工厂内的工作者能够在虚 拟空间中进行生产规划。目前宝马已经通过该技术将工厂生产规划效率提升了 30%。


5. 汽车业务架构逐渐完善,自动驾驶创造新增量


5.1 自动驾驶业务保持增长,未来前景广阔


汽车业务表现突出,看好未来增长空间。公司的自动驾驶业务由驾驶舱 AV 平台、AI 驾驶舱和信 息娱乐解决方案以及相关的开发协议组成。2024 财年第四季度公司的汽车业务收入同比略有下降, 为 2.81 亿美元;但全年实现营收 11 亿美元,同比 23 财年增长 21%。


汽车业务与供应链多企业达成合作,DRIVE Orin 与 GPU 带来增量。汽车制造商理想、蔚来、小 鹏,威马、比亚迪、沃尔沃、比亚迪等,还有滴滴、小马智行等出租公司都正基于 Orin 平台进行 自动驾驶开发。 在智能座舱领域,英伟达在 23 年 5 月与联发科建立合作伙伴关系。联发科将开发集成英伟达 GPU 芯粒(chiplet)的汽车 SoC,搭载 NVIDIA AI 和图形计算 IP,联发科的智能座舱解决方案将 运行 NVIDIA DRIVE OS、DRIVE IX、CUDA 和 TensorRT 软件技术,提供先进的图形计算、人 工智能、功能安全和信息安全等全方位的 AI 智能座舱功能。 英伟达在 22 年 9 月发布了基于 Hopper 架构的 Thor 芯片。Thor 芯片算力高达 2,000 TOPS,是 Orin 的近 8 倍,是单颗 FSD 芯片的 28 倍。Thor 可集成智能汽车所有 AI 计算需求,包括智能驾 驶、主动安全、智能座舱、自动泊车、车载操作系统、信息娱乐等,将在 25 年上量,未来有望成 为智能汽车的集中式中央域控的中央大脑。


5.2 软硬件结合打造自动驾驶完整开发生态


高性能芯片为自动驾驶业务提供硬件支持。1)NVIDIA DRIVE Hyperion 自动驾驶开发平台集成 了 AI 芯片和完整的传感器套件,包括 12 个外部摄像头、3 个内部摄像头、9 个雷达、12 个超声 波、1 个前置激光雷达和 1 个用于真值数据收集的激光雷达。该系统与软件栈结合,加速车辆自动驾驶技术开发。2)NVIDIA DRIVE Orin SoC 可提供每秒 254 TOPS,是自动驾驶系统的算力核 心。Orin SoC 采用 7 纳米工艺,由 Ampere 架构的 GPU、ARM Hercules CPU、第二代深度学习 加速器 DLA、第二代视觉加速器 PVA、视频编解码器、宽动态范围的 ISP 组成,引入了车规级安 全岛设计,为自动驾驶功能、置信视图、数字集群和 AI 驾驶舱提供动力支持。


全面开放的软件栈,构建完整的自动驾驶开发系统。NVIDIA Driven 的软件栈完整覆盖了包括感 知、定位和地图构建、计划和控制、驾驶员监控和自然语言处理部分,能够有效地辅助用户开发 和部署自动驾驶应用。包括:1)DRIVE OS:由嵌入式实时操作系统、Hypervisor、CUDA 库和 TensorRT 组成,是整个软件堆栈的基础,主要用于为应用程序提供安全可靠的执行环境。2) DRIVE Works:作为中间层充分调用硬件层的计算能力,达到硬件的全部吞吐量限制。3) DRIVE AV:获取传感器数据以完成距离测算、识别障碍物等功能,并基于数据进行地图构建和 路径规划。4)DRIVE IX:用于访问驾驶仓内感知的应用程序,可实现驾驶员监控、AR/VR 可视 化和实现车辆与乘客间的自然语言交互等功能。


6. 布局具身智能,机器人有望引领 AI 浪潮


6.1 开辟具身智能新领域,加紧平台构建


开辟具身智能体领域,VIMA 实现机械臂操作。在 ITF World 2023 半导体大会上,英伟达创始人 兼 CEO 黄仁勋表示,人工智能的下一个浪潮将是具身智能(embodied AI),即能理解、推理、 并与物理世界互动的智能系统。同时,公布 VIMA 多模态具身人工智能系统,能够在视觉文本提 示的指导下执行复杂的任务。VIMA 基于 Transformer 架构的仿真机器人智能体,能像 GPT-4 一 样接受 Prompt 输入,而且输入可以是多模态的(文本、图像、视频或它们的混合),然后输出动 作,完成指定任务。


软硬件设施齐备。公司在具身智能领域所开发的代表性产品是数字孪生平台 Omniverse 和 Isaac 平台。Isaac 平台配套 Isaac Gem 硬件加速工具、Isaac Sim 仿真平台以及用于端到端工作流部署 和管理的 EGX Fleet Command 和 Isaac for AMR 等。硬件方面,公司开发 Jetson 系列嵌入式 AI 平台,包含 Jetson 模组、用于加速软件的 NVIDIA JetPack SDK,以及包含传感器、SDK、服务 和产品的生态系统等。 NVIDIA Isaac 平台,加速 AMR 研发。公司 Isaac 平台是一个全新开放式平台,结合从边缘到云 的计算能力与强大的软件堆栈,适用于 AI 自主移动机器人(AMR)。Isaac AMR 平台使用新的 Isaac ROS(机器人操作系统)GEM、Isaac Sim 中的仓库仿真和 Isaac Nova Orin 优化运营效率, 使用 AI 为机器人开发解决方案提供动力支持,提供包括机器人训练、仿真、开发以及部署方案, 从而加速 AMR 的整体开发和部署,为开发者提供了一个功能强大的端到端平台。 Jetson 边缘人工智能平台,可运行 LLM,为 Isaac 平台等提供支持。Jetson 作为适用于自主机 器和嵌入式应用的先进平台,包括小型、节能的生产模块和开发套件,提供最全面的人工智能软 件堆栈,用于高性能加速,为边缘的 Generative AI、NVIDIA Metropolis 和 Isaac 平台提供动力, 与其他 NVIDIA 平台无缝集成,共享 AI 软件和云原生工作流。与其他嵌入式平台不同,Jetson 能 够运行大型语言模型(LLM)、视觉转换器和本地稳定扩散,包括 Jetson AGX Orin 上最大的 Llama-2-70B 型号,以交互速率运行。


量产 Jetson Orin 模组助力机器人更快地进入市场。量产 Jetson Orin 模组由英伟达其他平台上 使用的相同 AI 软件和云原生工作流提供支持,可提供企业在边缘构建自主机器所需的性能和能效, 强大的 Jetson 软件堆栈可帮助机器人开发者更快地将产品推向市场。Jetson Orin 模组算力高 275 TOPS,性能是上一代产品的 8 倍,适用于多个并发 AI 推理管道,还可通过高速接口为多个传感 器提供支持,有望成为机器人开发新时代的理想解决方案。英伟达提供 Jetson AGX Orin 开发者 套件,可以模拟整个 Jetson Orin 模组系列以进行开发,为制造、物流、零售、服务、农业、智慧 城市、医疗健康和生命科学等领域的机器人开发和边缘 AI 应用助力。


6.2 GEAR 小组启动,研究成果卓著


成立具身智能体研究小组 GEAR,正式布局、研发提速。英伟达于 2024 年 2 月 24 日宣布成立研 究小组“GEAR”,通用具身智能体研究,标志着公司正式入局具身智能领域的研究,加速人工 智能具身化进程。GEAR 的任务是为虚拟和物理世界中的具体代理建立基础模型,专注于四大关 键领域:多模态基础模型、通用型机器人研究、虚拟世界中的基础智能体以及模拟与合成数据技 术,已开发出 VIMA、Voyager、Eureka 等先进技术及解决方案。


Voyager 无需调整模型参数,通用人工智能体起点。Voyager 是《我的世界》中第一款 LLM 驱动 的嵌入式终身学习代理,在没有人类干预的情况下不断探索世界,获得各种技能,并做出新的发 现。Voyager 包括:1)最大化探索的自动课程;2)用于存储和检索复杂行为的可执行代码技能 库;3)结合环境反馈、执行错误和程序改进自我验证的迭代提示机制。Voyager 与 GPT-4 进行 交互,从而无需对模型参数进行微调,且增强了代理能力,表现出强大的情境终身学习能力。


Eureka AI 智能体诞生,可自动编写奖励算法训练机器人。NVIDIA Research 开发出一款名为 Eureka 的新型 AI 智能体,Eureka 使用 GPT-4 LLM 和生成式 AI 编写软件代码,不需要任何特定 任务提示或预定义的奖励模板,且能随时结合人类的反馈改进其奖励。公司于 23 年 10 月 20 日发 布此研究,包含一篇论文和相应的 AI 算法,开发者可以使用基于 Omniverse 构建的 Isaac Gym 进行实验。 Eureka 带来机器人性能、训练效率提升,生成式+强化学习,迈出新算法第一步。论文指出, Eureka 生成的奖励程序在超过 80%的任务上优于人类专家编写的程序,使机器人的平均性能提高 超 50%。Eureka 可利用 Isaac Gym 中的 GPU 加速模拟,快速评估大批奖励候选者的质量,从而 提高训练效率;随后基于训练结果汇总关键统计数据,指导 LLM 改进其奖励函数,实现 AI 的自 我完善。Eureka 可训练各类机器人完成不同类型的任务,包括四足机器人、双足机器人、四旋翼 机器人、灵巧手、协作机器人臂等。公司 AI 研究高级总监 Anandkumar 表示,Eureka 是向着将 生成式和强化学习方法结合,开发新算法所迈出的第一步。


6.3 机器人之年到来,GTC 将展示最新成果


机器人是具身智能的优良载体,未来有望见证机器人研发新进展。英伟达高级研究科学家 Jim Fan 博士表示,2024 年将是机器人、游戏 AI、仿真之年,公司的入局有望加速机器人的发展,公 司预计在 GTC 上展示机器人相关的最新成果。黄仁勋指出,机器人基础模型有望于 25 年问世, 之后的 5 年将会发生一些非常令人惊奇的事。 提供机器人开发解决方案,达成广泛合作。超 120 万开发者和 1 万名以上客户选择 NVIDIA 机器 人开发解决方案,包括 Amazon Web Services、思科、John Deere、Medtronic、百事公司和西 门子等,其中 Amazon Robotics 使用公司 Omniverse 为其仓库构建数字孪生、优化仓库设计、训 练智能机器人助手,提高生产力及仓储效率;全球领先的电子制造商富士康、宣鼎、和硕、广达 和纬创等采用英伟达生成式 AI 和 Omniverse 实现先进工厂的数字化。公司的机器人开发解决方 案有利于简化生产、优化物流和提升工作流程效率,并降低制造设施、仓库和现场的成本。


与机器人公司合作,共同开发适用于机器人的芯片。英伟达与波士顿动力公司合作,开发芯片以 实现强大的人工智能和计算机视觉技术进行机器人感知和控制;与瑞士机器人公司 ANYbotics 合 作,主要共同开发增强四足机器人 ANYmal 的感知和导航能力;与 AIBrain 合作,共同开发了芯 片适用于各种机器人应用的人工智能技术和解决方案。 GTC 大会将近,机器人等最新成果值得期待。英伟达将于 3 月 18 日至 21 日举办 GTC 2024 大 会,GTC 作为英伟达每年最重要的发布平台之一,已成为公认的“AI 风向标”,届时公司将发布 包括加速计算、生成式 AI 以及机器人领域的最新成果,公司与九号公司联合打造的最新自主机器 人平台将亮相现场。公司已在预热视频中重点介绍了生成式 AI,包括用于数字广告的 WPP/NVIDIA 引擎、刚刚发布的 RTX Chat、由 SyncTwin 支持的工业元宇宙、Refik Anadol Studio 的人工智能艺术,以及 OpenAI 为 Blender 动画创建代码。根据预告,波士顿动力人工智 能研究所执行董事 Marc Raibert 和 英伟达机器人研究高级总监 Dieter Fox 将发表题为《机器人及 AI 的角色:过去,现在和未来》的演讲,波士顿动力公司首席技术官 Aaron Saunders 将发表题 为《来看看在机器人世界如何解锁生态系统》的演讲。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)


相关报告

电子行业专题报告:英伟达GTC大会在即,持续关注AI进展.pdf

经纬恒润研究报告:汽车电子五域技术为基,攀登中央计算之巅.pdf

盛弘股份研究报告:电力电子尖兵,谋远终迎盛放.pdf

电子产品相关知识培训.docx

TCL电子研究报告:智屏+互联网+创新三驾马车,股权激励开启新篇章.pdf

电子行业企业管理-保险公估人年(电子习题).docx

AI人脸识别诈骗敲响金融安全警钟.pdf

AI搜索专题报告:怎么看Kimi的空间?.pdf

边缘AI行业研究报告:边缘AI硬件,引领硬件创新时代.pdf

人形机器人专题报告:AI驱动,未来已来.pdf

建筑行业2024年春季投资策略:新国九条催化央企市值国改,低空经济AI与铜矿有色弹性大.pdf

【东方证券】电子行业深度报告:英伟达GTC大会在即,持续关注AI进展.pdf-第一页
联系烽火研报客服烽火研报客服头像
  • 服务热线
  • 4000832158
  • 客服微信
  • 烽火研报客服二维码
  • 客服咨询时间
  • 工作日8:30-18:00