【德邦证券】国产AI龙头,云边终端三位协同.pdf

2023-11-17
21页
2MB

1. 全球知名 AI 芯片新星,营收稳健增长


1.1. 中国 AI 芯片龙头,产品矩阵扩充迅速


寒武纪是中国最具代表性的智能芯片厂商之一。中科寒武纪科技股份有限公 司成立于 2016 年,总部位于北京,是智能芯片领域全球知名的新兴公司。2021 年 3 月,公司上榜《EETimes》评选的“AI 芯片公司(AI CHIP) TOP 10”榜单。 公司专注于人工智能芯片产品的研发与技术创新。公司的主营业务是应用于 各类云服务器、边缘计算设备、终端设备中人工智能核心芯片的研发、设计和销 售,为客户提供丰富的芯片产品与系统软件解决方案。自公司成立以来,产品矩 阵迅速扩充,从寒武纪 1A 处理器开始,陆续推出了思元、玄思等芯片/加速卡/ 加速器产品,发展至目前形成云端产品线、边缘产品线、IP 授权及软件三条产品 线的产品矩阵。公司产品广泛应用于服务器厂商和产业公司,面向互联网、金融、 交通、能源、电力和制造等领域的复杂 AI 应用场景提供充裕算力,推动人工智 能赋能产业升级。


1.2. 实控人研发经验丰富,公司与中科院计算所关系密切


截至 23 年三季报,公司实控人为公司董事长、总经理陈天石,持股比例为 28.69%,系公司第一大股东。陈天石博士曾在中科院计算所担任研究员(正高 级职称),在人工智能及处理器芯片领域从事基础科研工作十余年,积累了坚实 的理论功底及研发经验。中科院计算技术研究所独资公司北京中科算源资产管理 有限公司为公司第二大股东,持股比例达 15.76%。


1.3. 营收稳健增长,研发投入占比持续提升


公司营收稳健增长。在国内外经济形势均面临下行压力,公司坚持自主研发、 提升产品成熟度、拓宽潜在市场、打造生态建设,营收实现稳健增长。2022 年 公司实现营业收入 7.29 亿元,较上年同期增长 1.11%。 从营收结构来看,云端产品线收入大幅增长,边缘产品线、IP 授权及软件 产品线收入下滑。2022 年,公司云端产品线单独对外销售部分贡献 21,944.89 万元的收入,占主营业务收入总额的 30.37%,思元 290、思元 370 系列加速卡 和训练整机产品销量规模迅速上升,促使 2022 年云端产品线收入较上年同期增 长 173.52%。因客户进行库存调控,未按预期进度下单,2022 年公司边缘产品 线收入较上年同期下降 78.40%。公司成功中标南京智能计算中心项目(二、三 期)等项目,保持智能计算集群系统业务开展的可持续性,2022 年公司智能计 算集群系统业务收入较上年同期增长 0.64%。2022 年公司 IP 授权及软件产品线 收入较上年同期减少 83.44%,一方面由于基础系统软件平台产品主要集成在智 能计算集群系统中销售;另一方面由于 IP 授权业务前期客户按出货量为标准进 行结算的收入随客户相关产品生命周期结束而减少。


毛利率处于较高水平。2022 年公司主营业务综合毛利率为 65.85%,较上年 增加 3.46 个百分点。主要原因有:(1)云端产品线思元 290、思元 370 系列产 品在多家头部企业完成产品导入,带动本期云端产品线业务收入的大幅增长;(2) 毛利率相对较低的边缘端产品在报告期内的收入占比下降。


期间费用率总体上升。2022 年公司销售费用率为 11.35%,较上年同期增加 1.44 个百分点,主要是销售人员增加导致职工薪酬增加、公司积极发力智能芯片 市场推广及生态建设所致;管理费用率为 41%,系股份支付费用较高;财务费 用率为-7.12%,主要系公司银行存款较多,银行存款利息收入较高所致。 加注研发投入,研发属性强。高质量的研发投入是芯片行业实现长远发展的 坚实基础,公司大力加注研发投入,2022 年研发投入总额为 15.23 亿元,较上 年同期增加 3.87 亿元,同比增长 34.11%。主要原因系:(1)半导体行业人才薪 酬水平升高;(2)新产品流片等相关费用增加;(3)公司根据研发需求购置 IP、 EDA 等无形资产以及研发设备等,导致无形资产摊销费用及固定资产折旧费用 较上年同期增加。


盈利端承压,亏损同比扩大。2022 年公司实现归母净利润-12.57 亿元,亏 损金额较上年同期扩大 4.32 亿元,主要原因有:(1)为确保产品高质量迭代, 公司持续加大研发投入,研发费用增加;(2)公司增加战略备货、处于生命周期 末期的云端产品销量减少以及边缘智能芯片产品销量不及预期,导致存货及库龄 增加,从而使 2022 年资产减值损失较上年同期有显著增加;(3)公司对个别大 额应收账款进行单项计提,从而使报告期信用减值损失较上年同期有显著增加。


2. 行业格局:AI 浪潮拉动算力需求,人工智能芯片前景广 阔


2.1. 大模型需海量算力支撑,AI 服务器需求快速提升


AIGC 需求兴起,产业发展依赖高制程芯片的底层算力支持。目前 AIGC、 高端服务器、高性能计算、5G 等应用快速发展,这些应用离不开高制程算力芯 片的底层支撑。以 AIGC 大模型为例,GPT-3 的模型规模达 1750 亿个参数,使 用单块英伟达 V100GPU 进行训练需要 355 年,对算力芯片提出了海量的需求。 而以 1024 块英伟达 A100 芯片测算,GPT-3 的训练时长为 25 天以上。根 据我们测算,在理想条件下通过租用线上算力完成一次参数量为 1750 亿的 GPT-3 模型训练需要 1024 块 A100 80G,时长约 25 天,训练成本约为 93 万美 元。但实际成本和时间往往会更长,比如模型几乎不可能一次顺利完成训练等等。 在训练算力需求之外,推理算力需求也会随着模型的商用流行度以及吸引的活跃 用户数持续增加。我们认为,数量快速提升的大模型训练需求和大模型推理需求 有望大幅推动以 GPU 为主的算力芯片市场规模提升。


全球 AI 服务器出货迅速,AI 芯片市场主要为英伟达与 AMD 所占据。AIGC的发展带动 AI 服务器迅速增长,TrendForce 集邦咨询预计 23 年 AI 服务器出货 量约 120 万台,同比+38.4%,占整体服务器出货量的比约为 9%,2022~2026 年 AI 服务器出货量 CAGR 将达 22%,而 AI 芯片 2023 年出货量将成长 46%。 GPU 作为数据并行处理的核心,是 AI 服务器的核心增量。全球 GPU 呈现“一 超一强”的竞争格局,根据 IDC 数据,2021 英伟达在企业级 GPU 市场中占比 91.4%,AMD 占比 8.5%。


中国智能算力规模亦快速增长,CAGR 达 48%。根据 IDC 预测,2022 年中 国智能算力规模将达到 268 EFLOPS,预计 2026 年将进入每秒十万亿亿次浮点 计算(ZFLOPS)级别,达到 1271 EFLOPS,2022-2026 年 CAGR48%。伴随 企业 AI 应用成熟度逐步递增,企业将把算力更多从训练端转移到推理端负载上, 这意味着 AI 模型将逐步进入广泛投产模式,据 IDC 数据,2021 年中国数据中心 用于推理的服务器的市场份额占比已经过半,达到 57.6%,预计到 2026 年,用 于推理的工作负载将达到 62.2%。


2.2. 人工智能芯片定向针对 AI 领域,发展潜力广阔


人工智能所需的算力芯片主要分为两类,一类是以 GPU、CPU 为主的传统 芯片,一类是专门针对人工智能领域的人工智能芯片。在人工智能数十年的发展 历程中,传统芯片曾长期为其提供底层计算能力。这些传统芯片包括 CPU、 GPU 等,它们在设计之初并非面向人工智能领域,但可通过灵活通用的指令集 或可重构的硬件单元覆盖人工智能程序底层所需的基本运算操作,从功能上可以 满足人工智能应用的需求,但在芯片架构、性能、能效等方面并不能适应人工智 能技术与应用的快速发展。而智能芯片是专门针对人工智能领域设计的芯片,包 括通用型智能芯片与专用型智能芯片两种类型。


目前中国加速计算服务器市场需求主要被 GPU 所承接。根据 IDC 数据, 2022 年中国加速服务器市场规模达到 67 亿美元,同比增长 24%,其中 GPU 服 务器依然是主导地位,占据 89%的市场份额。在 AI 加速应用部署的背景下, 2027 年中国加速服务器市场规模 有望达到 164 亿美元,2022-2027 年 CAGR20%。且由于 GPU 仍为中国主流 AI 加速芯片,服务器 GPU 市场规模同 样有望在 AI 的推动下持续增长。


GPU 为产业链最大增量,AI 趋势下单服务器需求量大幅提升。一般的普通 服务器仅会配备单卡或双卡,而 AI 服务器由于需要承担大量的计算,一般配置 四块或以上的 GPU 或人工智能芯片。且 AI 大模型在训练与推理时的计算量巨大, 中低端的处理器无法满足其运算需求。如在英伟达 DGX H100 中,其配备 8 个 NVIDIA H100 GPU,总 GPU 显存高达 640GB;每个 GPU 配备 18 个 NVIDIA NVLink,GPU 之间的双向带宽高达 900GB/s。若以每个 NVIDIA H100 GPU 单 价 4 万美元测算,DGX H100 的 GPU 价值量为 32 万美元,为 AI 服务器中的最 大增量。


AI 智能芯片定制化程度更高,未来有望凭借更灵活的架构设计和更高的算 力,成为市场主流。相比英伟达的 GPU,寒武纪人工智能芯片更类似谷歌的 TPU。寒武纪产品与谷歌的 TPU,都是通过对人工智能领域的计算特征和访存 特征进行分析和抽象,设计出的通用型智能芯片,指令集、运算器架构和存储层 次都非常适合智能算法,从而在智能应用上的能效超过了传统 CPU、GPU。但 两者在架构设计上,仍有不同。


3. 公司业务:云端芯片为基,云边终端三位协同


公司产品涉及“云、边、终端”,全链路垂直协同布局。人工智能技术在云 端(云)、边缘端(边)和终端(端)设备中均有广泛应用,但都需要由核心芯 片提供计算能力支撑。云、边、端三种场景对于芯片的运算能力和功耗等特性有 着不同要求,单一品类的智能芯片难以满足实际应用的需求。


公司产品布局完备,持续像高端化迭代。公司面向云、边、端三大场景分别 研发了三种类型的芯片产品,分别为云端智能芯片及加速卡、边缘智能芯片及加 速卡、IP 授权及软件。公司产品由早期推出的“终端智能处理器 IP”逐渐向 “云端智能芯片及加速卡”迭代,产品持续高端化迭代。


3.1. 云端智能芯片及加速卡:先进制程+先进封装,助力业务彰显技术实 力


云端智能芯片为业务核心,延伸发展训练整机与智能计算集群。公司云端产 品线的产品形态主要包括云端智能芯片和加速卡、训练整机及智能计算集群,上 述不同形态的产品均以公司研发的云端智能芯片为核心。


云端智能芯片:云端智能芯片对应的加速卡产品系以云端智能芯片为核 心芯片,配备 DRAM 芯片颗粒等外围芯片的 PCB 电路板,与散热片等 结构件组合后形成的可直接插入服务器标准接口(如 PCIE 接口、OAM 接口)的板卡硬件产品。加速卡产品是云服务器、数据中心中进行人工 智能处理的基本单元,主要为云计算和数据中心场景下的人工智能应用 程序提供高密度、高能效的硬件计算资源,加速卡的核心算力来源是公 司自研的云端智能芯片。


训练整机:训练整机系面向云端训练场景,为公司云端训练芯片及加速 卡配套设计整机主板,并将多块加速卡通过标准接口集成于主板上,同时配套电源机箱等部件形成的整机产品。


智能计算集群系:智能计算集群系将公司自研的加速卡或训练整机产品 与合作伙伴提供的服务器设备、网络设备与存储设备结合,并配备公司 的集群管理软件组成的数据中心集群。能为人工智能应用部署技术能力 相对较弱的客户提供软硬件整体解决方案。


公司云端产品客户主要为服务器厂商与互联网厂商,竞争对手英伟达实力强 大。目前,公司云端产品主要应用于互联网、金融等领域,主要客户为中科可控、 浪潮信息等服务器厂商及阿里、百度等互联网公司。公司的云端智能芯片和加速 卡的主要竞争对手为英伟达。在软件生态方面,英伟达凭借长久以来的经验积累 以及产品推广已形成了较为完善的软件生态,一定程度上提高了公司产品的导入 成本。目前,英伟达的 GPU 芯片和加速卡产品占据 90%以上的市场份额。


公司思元 290 与思元 370 采用 7nm 工艺设计,分别负责推算一体与云端推 理两大方向。公司思元 370 为推算一体芯片,思元 290 为云端训练芯片及加速 卡产品。训练端的思元 290 配备 HBM2,算力最高可达 512TOPS(INT8)、 64TOPS(CINIT32)。而凭借 7nm 制程工艺和寒武纪最新智能芯片架构 MLUarch03,思元 370 峰值算力可达 256TOPS(INT8),是寒武纪第二代产品思 元 270 算力的 2 倍。


相比友商产品,公司思元 370 竞争优势显著,首次采用 Chiplet 工艺。思元 370 实测算力性能能与主流 GPU 比肩。且思元 370 芯片支持 LPDDR5 内存,高 带宽且低功耗,可在板卡有限的功耗范围内给 AI 芯片分配更多的能源,输出更 高的算力。


训练端 290 芯片持续拓展,新品 590 在研待发布。思元 290 智能芯片是寒 武纪的首颗训练芯片,采用台积电 7nm 先进制程工艺,集成 460 亿个晶体管, 支持 MLUv02 扩展架构,全面支持 AI 训练、推理或混合型人工智能计算加速任 务。随着搭载思元 290 芯片的云端智能芯片及加速卡、训练整机产品的市场拓展 和落地,云端产品线产品形成协同,大幅提升了云端产品的市场销售潜力。同时, 根据寒武纪官方公众号,目前在研全新一代云端智能训练芯片思元 590,采用 MLUarch05 全新架构,实测训练性能较在售产品有了显著提升,它提供了更大 的内存容量和更高的内存带宽,其 PCIE 接口也较上代实现了升级,有望接力 290 成为业务增长点。


3.2. 边缘智能芯片及加速卡:立足高算力领域,新品推出激发新老客户放 量


边缘计算是对云端计算的有效补充。边缘计算是近年来兴起的一种新型计算 范式,在终端和云端之间的设备上配备适度的计算能力,一方面可有效弥补终端 设备计算能力不足的劣势,另一方面可缓解云计算场景下数据安全、隐私保护、 带宽与延时等潜在问题。 公司发力国内智能物联网领域,在高算力市场取得较大份额。根据 ABI Research 预计,全球边缘智能芯片市场规模将从 2019 年的 26 亿美元增长到 2024 年的 76 亿美元,年化复合增长率达到 23.9%。公司当前已有产品涉足的主 要领域为智能物联网,目前该领域各类边缘智能芯片的国内市场规模约为 6-8 亿 美元。在边缘计算市场中的智能物联网领域,除公司外,目前主要的边缘芯片供 应商包括英伟达、Novatek、华为海思及瑞芯微等厂商。公司当前主要在智能物 联网中的较高算力市场占有较大份额。


公司边缘芯片主要为思元 220,累计出货百万片。公司于 2019 年 11 月推出 了边缘智能芯片思元 220 及相应的 M.2 加速卡。思元 220 的推出,标志着公司 已经具备了从终端、边缘端到云端完整产品线。目前,思元 220 累计销量突破百 万片。


思元 220 销售依赖客户 A,且已进入生命周期后期,影响 22 年边缘产品收 入。根据《关于中科寒武纪科技股份有限公司向特定对象发行股票申请文件的第 二轮审核问询函的回复(修订稿》,公司自边缘端产品 220 量产后即开始与公司 A 展开合作,其为行业头部客户,因此公司边缘产品线收入主要来自公司 A, 2022 年公司边缘业务收入下滑主要受公司 A 需求变化影响,此外公司边缘端产 品思元 220 已经进入产品生命后期,新产品尚未推出,亦影响了 2022 年边缘端 收入。随着公司 A 逐渐消化库存,预计将继续采购思元 220,保守预测其 2023 年内仍有 20 万片的采购需求,对应采购金额约为 3500 万元。


公司新边缘产品即将推出,公司 A 与其它客户有望同步放量。根据《关于 中科寒武纪科技股份有限公司向特定对象发行股票申请文件的第二轮审核问询函 的回复(修订稿》,公司目前在研的边缘端产品计划于 2023 年下半年推向市场, 多家客户对相关产品有较强采购意向,上述客户在技术交流阶段对产品规格和性 能表示满意,部分客户启动了产品立项工作。公司相关产品预计在 2023 年可贡 献 840 万收入。预计主要客户的产品导入开发工作在 2023 年基本完成,2024 年开始规模出货,当年相关产品的收入将持续提升。


3.3. 终端 IP 授权及软件:服务生态建设,构建完备业务矩阵


终端智能 IP 为公司早期产品,目前逐渐成为业务中间形态。终端智能处理 器是终端设备中支撑人工智能处理运算的核心器件,为了提升性能降低功耗,同 时节省成本,终端智能处理器通常不是以独立芯片的形式存在,而是作为一个模 块集成于终端设备的 SoC 芯片当中。公司的终端智能处理器 IP 产品主要有 1A、 1H 和 1M 系列。随着公司云边端产品线的丰富,终端智能处理器 IP 授权逐渐成 为公司业务发展的一个中间形态,更多服务于自有芯片处理器核心或生态建设拓 展。已集成于超过 1 亿台智能手机及其他智能终端设备中。


在软件层面,Cambricon Neuware 是公司打造云边端统一的人工智能开发 生态的核心部件。公司为云边端全系列智能芯片与处理器产品提供统一的平台级 基础系统软件 Cambricon Neuware(包含软件开发工具链等),打破了不同场景 之间的软件开发壁垒,兼具高性能、灵活性和可扩展性的优势,可让同一人工智 能应用程序便捷高效地运行在公司云边端系列化芯片与处理器产品之上。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)


相关报告

寒武纪研究报告:国产AI龙头,云边终端三位协同.pdf

寒武纪分析报告国内领先的人工智能芯片企业.pdf

AI芯片行业之寒武纪(688256)研究报告.pdf

寒武纪:是“芯二代”,也是人民的希望.pdf

寒武纪深度解析:云、边、端全面布局的AI芯片龙头企业.pdf

中科寒武纪科技股份有限公司招股说明书.pdf

AI人脸识别诈骗敲响金融安全警钟.pdf

AI搜索专题报告:怎么看Kimi的空间?.pdf

边缘AI行业研究报告:边缘AI硬件,引领硬件创新时代.pdf

人形机器人专题报告:AI驱动,未来已来.pdf

建筑行业2024年春季投资策略:新国九条催化央企市值国改,低空经济AI与铜矿有色弹性大.pdf

【德邦证券】国产AI龙头,云边终端三位协同.pdf-第一页
联系烽火研报客服烽火研报客服头像
  • 服务热线
  • 4000832158
  • 客服微信
  • 烽火研报客服二维码
  • 客服咨询时间
  • 工作日8:30-18:00