1.海内外大厂布局及未来发展展望
1.1.GPT 迭代速度加快,GPT-4 于 2023 年 3 月发布
2022 年 11 月,美国 OpenAI 公司在 GPT-3.5 的基础上推出聊天机器人 ChatGPT。相比于之前 的主流 AI 模型,ChatGPT 通过采用 Transformer 算法以进行自然语言处理。模型通过连接大 量语料库进行预训练以获得海量参数,并针对不同的语言场景使用不同的特定数据集对模型 进行微调(Fine-tuning)。最终训练所得 ChatGPT 模型不仅具备聊天问答功能,还能实现各 类语言相关任务,如帮助撰写论文、翻译、编写代码等。ChatGPT 一经发布,便受到了用户 的狂热追捧,引爆人工智能热潮。 在 ChatGPT 发布不到四个月后,2023 年 3 月,OpenAI 公司应势推出新的 GPT-4。GPT-4 是对 ChatGPT 的重大升级迭代,不仅具备更加强大的语言理解能力,还能够处理图像内容。GPT-4 可以生成更长、更复杂、更准确、更多样化的文本字符串,并在人们输入图像时做出响应, 可以更好地避免 GPT-3.5 在处理某些问题时可能出现的错误,保证问题解决过程的规范和准 确。
截至目前,GPT 经历了从 GPT-1 发展至 GPT-4 的迭代升级。从 GPT-1 到最新的 GPT-4,模型 可采用的预训练数据量得到质的提升,使用海量参数可以完成自然语言处理的绝大部分任务、 极大地提高了模型的精确度,语言模型领域有了显著的突破。
自 ChatGPT 推出以来,国内外各企业纷纷入局,大模型发展如火如荼。根据中国经济周刊, 李开复在 2023 中关村论坛·人工智能大模型发展论坛上表示“AI 大模型是绝对不能错过的 历史机遇。因为这将是有史以来最大的平台革命”,根据《中国人工智能大模型地图研究报 告》,截至 2023 年 5 月底,截至 2023 年 5 月,美国已发布 100 个参数规模 10 亿以上的 大模型,国内 10 亿级参数规模以上基础大模型至少已发布 79 个。据国外风投数据分析公司PitchBook 的数据,2023 上半年,全球人工智能领域共计发生融资 1387 件,筹集融资金额 255 亿美元,平均融资金额达 2605 万美元。根据脉脉高聘近日发布的《2023 泛互联网行业人 才流动报告》显示,今年上半年,泛互联网行业最紧缺的岗位主要集中在 AI 方向。算法研究 员以 0.47 的人才供需比位居人才紧缺度榜首,平均两家公司争夺 1 位人才。AI 技术的爆发 也推动了人工智能工程师、自然语言处理、深度学习等 AI 方向人才的招聘需求,这 3 个岗 位的人才供需比分别为 0.61、0.66、0.73,人才供小于求,昭示着 AI 发展的持续与火热性。
1.2.英伟达——AI 市场引领者
英伟达逐步发力计算专用芯片领域,从传统的显示卡硬件供应商逐步转型为高性能并行计算 芯片及解决方案提供商。目前市面主流的 AI 服务器配备 Nvidia Ampere 架构的计算卡 A100。 A100 的性能比上一代产品 V100 提升高达 20 倍,可划分为七个 GPU 实例,根据变化的需求 进行动态调整。A100 的单精度浮点计算能力峰值可达 19.5TFLOPS,双精度浮点算力可达 9.7TFLOPS。相比 V100,A100 80GB 可针对大型模型提供高达三倍的 AI 训练速度;相比 CPU, A100 80GB 可提供高达 249 倍的 AI 推理性能。OpenAI 公司在推出 GPT-3 和 ChatGPT 时即使 用英伟达的 NVIDIA A100 GPU 来训练和运行。
针对算力需求巨大的 ChatGPT 及其他大模型,英伟达推出 NVIDIA H100 NVL。NVIDIA H100 NVL 是具有 94GB 内存和加速 Transformer 引擎的大语言模型(LLM)专用解决方案。H100 的 单精度浮点计算能力峰值可达 34 TFLOPS,双精度浮点算力可达 67 TFLOPS。与 NVIDIA A100 GPU 相比,NVIDIA H100 在大型语言模型上具有高达 9 倍的训练速度和 30 倍的 AI 推理性能, 进一步巩固英伟达在 AI 芯片市场的领先地位。
在 2023 年台北电脑展会 COMPUTEX 上,英伟达推出了新的 GH200 超级芯片,从底层设计上出 发,将英伟达自研的基于 ARM 架构的 72 核 Nvidia Grace CPU 芯片和 Nvidia H100 Tensor Core GPU 两者相整合,两者之间通过 Nvidia NVLink-C2C 技术互联,实现了超高带宽和低延 迟、低能耗密度的高度整合。新的架构能提供 900G/s 的带宽,相比于目前最新的 PCIe Gen5 技术约快 7 倍。NVLink-C2C 还能实现 GPU 对系统内所有内存的高效访问,并能实现底层硬件 级别的 CPU-GPU 内存/显存共享。
在 AI 服务器方面,英伟达在 GTC 大会上发布最新 AI 服务器系统 Nvidia DGX H100 及 NVLink 架构。其中 DGX H100 将配备 8 个 H100 GPU 模组和 Transformer 引擎,总 GPU 显存高达 640GB。每个 H100 GPU 配备 18 个 NVLINK,确保 GPU 之间双向带宽高达 900GB/s。DGX H100 服 务器可利用 NVLink 来提高可扩展性,进而实现超高速的深度学习训练。性能方面,DGX H100 系统的 AI 算力高达 32PFlops(每秒 3.2 亿亿次),浮点算力 FP64 480TFlops(每秒 480 万亿 次),FP16 1.6PFlops(每秒 1.6 千万亿次),FP8 3.2PFlops(每秒 3.2 千亿次),分别是上代 DGX A100 的 3 倍、3 倍、6 倍,并且新增支持网络内计算,性能可达 3.6TFlops。
1.3.海外巨头争夺 AI 领域主动权
微软在人工智能领域深入布局,在 2019 年就向 OpenAI 投资了 10 亿美元,并不断扩大与 OpenAI 的合作关系。2023 年 2 月,微软携手 OpenAI 推出嵌入了 ChatGPT 功能的必应(Bing) 搜索引擎,用户可以直接提出问题并通过搜索引擎生成答案。3 月 16 日微软推出 AI 版 Office “全家桶”:Microsoft 365 Copilot。2023 年 7 月 18 日,微软于 Inspire 合作伙伴大会上 宣布,面向 Office 365 E3、E5、商业标准版和商业进阶版的订阅商户,Microsoft 365 Copilot 的定价为每个用户每月 30 美元。 2022 年,谷歌推出了 5400 亿参数大模型 PaLM,而 2023 年 5 月 10 日,谷歌又发布了 PaLM2, 部分能力已经超越了 GPT-4。谷歌推出基于 LaMDA 的 Bard 用来对标 ChatGPT。Bard 的 LaMDA 模型训练参数达 1370 亿个。在 2023 年 3 月 21 日,谷歌宣布开放 Bard 公测,并于 2023 年 4 月 10 日改用更强大的 PaLM 大型语言模型以增加其运算能力。随着全球 AI 接入潮兴起,谷 歌也将 Bard 应用到谷歌搜索和办公软件中。DuetAI 是应用于 GoogleWorkspace 的办公类 AI 工具,用来对标微软 Copilot,可以自动生成文档、表格和图片。
2022 年 5 月,MetaAI 发布了基于 1750 亿参数的超大模型 OPT-175B。2023 年 2 月,Meta 宣 布将推出针对研究社区的“Meta 人工智能大型语言模型”系统“LlaMA”。2023 年 7 月,Meta AI 发布了第二代语言大模型 Llama2,模型开源且可免费用于商业用途。依照测试结果,700 亿参数的结果同常见的闭源模型 GPT-3.5 在 MMLU 和 GSM8K 水平上较为接近,但在生成代码 的能力上存在较大差距。微软在随后的 Inspire 合作伙伴大会上同时宣布在 Azure 云计算平 台上相应深度整合 Llama2 模型框架。亚马逊的 AWS 云也加入和 Meta 的合作中。 2023 年 4 月 13 日,亚马逊云服务部门宣布推出自有大型语言模型泰坦,模型初始可分为两 种,第一类名为 Titan Text,为生成式 LLM,可用于总结、文字生成等。第二类名为 Titan Embedding,专注于将文字输入转换为参数化的表达,相应的技术已被用于亚马逊商品的推荐 算法中。
1.4.海外科技 AI 方向投资加大,印证 AI 长久发展逻辑
目前亚马逊、微软、谷歌、Meta、苹果均已发布 2023 年中报。根据各公司半年报,虽然有些 公司 Q2 资本开支有所下降。但从细分结构上看,各家厂商减少的主要是非 AI 方向资本开支, AI 方向投资力度仍在加大。 2023 年上半年谷歌资本开支为 132 亿美元,下半年将持续投资技术基础设施,包括服务器、 网络设备和数据中心,尤其是在人工智能方面的投资;微软 2023Q2 资本开支为 89.43 亿美 元,同比增长 30.16%。微软表示将继续投资基础设施建设。为支持云产品和人工智能基础设 施投资的增长,预计未来几年资本支出将增加;亚马逊的现金资本支出达 235 亿美元,亚马 逊首席执行官 Jassy 表示亚马逊正在加大对云计算、网络、存储、数据库和人工智能技术的 投资;Meta 预计 2023 年全年资本支出约为 270 亿至 300 亿美元,24 年将会继续大力投入 AI,并认为基础设施相关的费用在 24 年会显著高于 23 年;苹果本财年的研发支出达到 226.1 亿美元,比上年同期高出约 31.2 亿美元,首席执行官蒂姆·库克表示研发支出的增加部分是 由生成人工智能的工作推动的。
海外厂商持续加大 AI 布局与相关资本开支,AI 未来长久发展逻辑加强。当前 AI 行业发展以 海外科技巨头为首,几大巨头的投资与发展方向引领者全球 AI 行业技术趋势与发展方向。 目前海外巨头一方面纷纷布局自研大模型,另一方面将大模型与客户端应用结合形成可产生 收入增量的 to B、to C 端产品以期形成盈利能力。同时各家大厂不断加大 AI 方向资本开支, 对服务器、网络设备等设施加大投入,2023、2024 年相关资本开支持续上行,奠定了 AI 行 业未来长久发展的基础,我们认为 AI 不会是概念性炒作,而是将会在海外科技巨头引领下 持续快速发展。 推理侧有望延续训练侧快速发展趋势。随着 to B 与 to C 端大模型应用的加速落地,AI 发展 将从训练需求为主逐步演进至推理需求为主。在 AI 大模型发展早期,AI 服务器需求以模型 训练为主。据 IDC 数据,2021 年 AI 服务器训练需求占比达 57.33%,随着生成式 AI 应用的 应用发展,预计未来推理型服务器将逐渐成为市场主流,该比例在 2025 年将降低至 39.2%。 ChatGPT 上线仅两个月,日活用户数已超 1 亿规模。百度文心一言在发布首日 8 月 31 日 0:00-24:00 期间共回复网友超过 3342 万个问题,开放下载 19 小时之内日活跃用户突破 100 万。9 月 5 日,科大讯飞宣布讯飞星火认知大模型面向全民开放,上线首日 14 小时用户 突破 100 万。我们预计 AI 发展的下半场—推理侧亦持续将快速发展。
1.5.国内大厂加速布局大模型
国内厂商也在加速研发大模型,各大互联网巨头纷纷入局 AI 大模型。百度最早于 2019 年推 出预训练模型 ERNIE 1.0,历经多次迭代,百度文心大模型形成了基础大模型、任务大模型、 行业大模型三级体系。框架层面上,百度提供了中国首个开源的产业级深度学习框架-飞桨 PaddlePaddle,根据 IDC 中国《中国深度学习框架和平台市场份额》2022H2 报告,目前百度 框架替代了谷歌的 TensorFlow 和 Meta 的 Pytorch,在中国市场综合份额排名第一。目前, 百度构建了文心大模型+飞桨深度学习平台的商业模式,落地应用方向广泛,涵盖金融、能源、 电力、航天、互联网等领域。 2022 年 9 月,阿里发布通义大模型系列。通义大模型分为统一模型底层、通用模型层和专业 模型层。目前,阿里通义大模型已落地应用于电商、医疗、娱乐、设计、金融等行业,服务 超过 200 个场景。2023 年 4 月 11 日,阿里正式推出大语言模型通义千问。此外,阿里还推 出了用户共建 AI 模型服务型平台“魔搭社区”,目前社区内已集聚了 180 多万 AI 开发者和 900 多个优质 AI 模型。2023 年 7 月 7 日上海世界人工智能大会上公司 CTO 表示,阿里云将 向大模型创业公司提供全方位的服务,包括最强大的算力和开发工具。
华为云团队 2020 年开始发展 AI 大模型,2021 年 4 月发布盘古大模型。2023 年 7 月 7 日, 华为于公司开发者大会 2023 上正式发布 AI 大模型华为盘古大模型 3.0。模型提供 100 亿参 数、380 亿参数、710 亿参数和 1000 亿参数的系列化基础大模型。此外,华为一站式 AI 开发 平台 ModelArts 为盘古大模型的训练、推理迭代发展持续提供优化支持。目前,盘古大模型 已在 100 多个行业场景完成验证,涵盖能源、零售、金融、工业、医疗、环境、物流等。 腾讯于 2022 年 12 月推出了万亿中文 NLP 预训练模型混元 AI 大模型。目前,腾讯混元大模 型涵盖 NLP 大模型、CV 大模型、多模态大模型和众多行业模型。腾讯也打造了一站式机器学 习生态服务平台——太极机器学习平台,为混元大模型提供底层支持。受益于腾讯自身业务 广泛,混元大模型在腾讯内部已与腾讯广告、微信、QQ、游戏等产品结合,在广告提效层面 效果显著。同时,混元大模型还通过腾讯云实现对外的商业化。 2023 年 4 月 18 日,字节跳动旗下火山引擎发布自研 DPU 等系列云产品,并推出升级版的机 器学习平台,支持万卡级大模型训练。2023 年 6 月 28 日,字节跳动公布了公司在大模型业 务的最新进展,并发布了大模型服务平台“火山方舟”,提供模型的训练、推理、评测、精调 等功能服务。目前集成了百川智能、出门问问、复旦大学 MOSS、IDEA 研究院、澜舟科技、 MiniMax、智谱 AI 等多家公司及团队的大模型。
科大讯飞于 2023 年 5 月推出星火认知大模型,目前已在教育、办公、汽车、数字员工等行业 中落地应用。在发布会上,董事长刘庆峰表示未来科大讯飞将在保护伦理和安全的前提下发 展认知大模型,同时联合开发者推动认知大模型应用落地,共建人工智能“星火”生态。2023 年 6 月 13 日,360 集团发布认知型通用大模型“360 智脑 4.0”,并宣布 360 智脑已接入 360 旗下产品,如搜索引擎、浏览器和安全卫士中。同时,借助 360 长期在互联网安全方面的积 累,公司建立了“安全大脑”大模型,以监管大模型中的不当行为。2023 年 7 月 7 日,商汤 推出大模型体系“商汤日日新 SenseNova”的多方位全面升级及体系下一系列大模型产品的 落地成果,其中包括金融领域的客服、投研分析降本增效;医疗场景内辅助导诊问诊、辅助 决策;移动终端内智能交互、内容交互;线下场景的故障识别、缺陷判断;线上直播短视频 平台的数字人应用及营销工具;智能汽车领域的集安全效率为一体的智能座舱体验等。
国内三大运营商同样相继宣布要在人工智能领域开展相关布局: 7 月 8 日,在 2023 年世界 人工智能大会“大模型与深度行业智能”创新论坛上,中国移动正式发布“九天”人工智能 大模型:九天・海算政务大模型和九天・客服大模型。中国联通将人工智能产业定为核心产 业。6 月 28 日,中国联通在 MWC 上海 2023 期间发布了鸿湖图文大模型 1.0,拥有 8 亿和 20 亿个两个不同训练参数的版本。支持文生图、视频剪辑和以图生图等多模态的功能。中国电 信天翼云已经初步具备为千亿级参数大模型提供算力服务的能力。7 月 7 日,在世界人工智 能大会期间,电信智科正式对外发布中国电信大语言模型 TeleChat,并展示了大模型赋能数 据中台、智能客服和智慧政务三个方向的产品。
1.6.预计 2027 年中国人工智能市场规模将达 15,372 亿元
从 AI 产业链构成来看,人工智能技术架构逻辑上分为基础层、技术层、能力层、应用层、终 端层五大板块。基础层涉及硬件基础设施和数据、算力、算法模型三大核心要素。随着 AI 大 模型规模的不断扩大,对计算资源的需求也在增加。因此,高性能的硬件设备、海量场景数 据、强大的算力基础和升级迭代的算法模型成之了支持 AI 大模型发展的关键。技术层:主要 涉及模型构建。目前 Transformer 架构在 AI 大模型领域占据主导地位,如 BERT、GPT 系列 等。在基础层和技术层的支持下,AI 大模型拥有了文字、音频、图像、视频、代码、策略、 多模态生成能力等,具体应用于金融、电商、传媒、教育、游戏、医疗、工业、政务等多个 领域,为企业级用户、政府机构用户、大众消费者用户提供产品和服务。构成了 AI 的能力 层、应用层、终端层。
根据弗若斯特沙利文、头豹研究院数据,2022 年中国人工智能行业市场规模为 3,716 亿人 民币,预计 2027 年将达 15,372 亿人民币,CAGR 达 34%。渗透率有望从 2022 年的 10.2% 提升至 2027 年的 39.5%。人工智能有望在下游制造、交通、金融、医疗等多领域不断渗透, 实现大规模落地应用。下游行业对人工智能需求呈现出碎片化、多样化的特点,从开发、精 调、优化、迭代到应用都需要投入巨大的人力和财力,成本极高。而大模型能够向外赋能, 包括通过开放 API 的形式,降低各行各业应用大模型的门槛,提升 AI 落地效率和价值,推 动人工智能进入工业化发展阶段。
大模型以训练基础设施及底层技术构成的技术底座为基点,在海量通用数据上进行预训练, 集成多样化的 AI 核心技术,构建具有泛化能力的多模态基大模型以及领域大模型,如 CV 大模型、NLP 大模型、多模态大模型等。随着多模态能力的演进,CV 领域及多模态通用大模 型将逐渐成为市场发展主流。领域大模型能够结合垂直场景及应用行业需求进行模型微调和 应用适配,结合 ToC 端用户交互数据或 ToB/ToG 端行业专业知识,为下游 C 端业务场景和 B/G 端商业生态进行技术赋能,助力大模型不断向上生长。
人工智能能够赋能经济社会发展各领域,下游各个领域的产业升级对大模型的需求持续走高。 自动驾驶、智慧工业、智能安防、AI+互联网、智慧医疗等是人工智能基础数据服务最重要的 应用领域。根据头豹研究院,在自动驾驶领域,AI 解决方案可以通过传感器、计算机视觉等 技术逐步解放驾驶员,预计未来增速将达 31%-38%;在智慧工业领域,AI 可以利用计算机视 觉技术高效准确发现瑕疵品、并由机器人代替人在危险场所完成工作,未来增速预计将达 22%-30%。在智能安防领域,AI 可以通过计算机视觉等技术实现人脸识别,未来增速预计将 达 16-23%。
1.7.人工智能行业快速发展,服务器、AI 芯片、交换机、光模块产业将深度受益
总结来看,2022 年 11 月,美国 OpenAI 公司在 GPT-3.5 的基础上推出聊天机器人 ChatGPT, 引爆人工智能热潮。此后 GPT 迭代速度加快,GPT-4 已于 2023 年 3 月发布。英伟达作为 AI 芯片绝对引领者,先后发布了 A100、H100、GH200 超级芯片等多款 GPU,逐渐从传统的显示 卡硬件供应商逐步转型为高性能并行计算芯片及解决方案提供商。当前 AI 行业发展以海外 科技巨头为首,几大巨头的投资与发展方向引领者全球 AI 行业技术趋势与发展方向。目前 海外巨头一方面纷纷布局自研大模型,同时不断加大 AI 方向资本开支,亚马逊、微软、谷 歌、Meta、苹果五大科技巨头上半年资本开支超 360 亿美元。根据各公司半年报,预计 2023、 2024 年相关资本开支将持续上行,奠定了 AI 行业未来长久发展的基础。以百度、阿里、腾 讯、字节、华为为代表的国内科技巨头以及三大运营商也在加速研发大模型,积极发展我国 的人工智能市场。根据弗若斯特沙利文、头豹研究院数据,2022 年中国人工智能行业市场规 模为 3,716 亿人民币,预计 2027 年将达 15,372 亿人民币,CAGR 达 34%。渗透率有望从 2022 年的 10.2%提升至 2027 年的 39.5%。人工智能有望在下游制造、交通、金融、医疗等多 领域不断渗透,实现大规模落地应用。 人智能的发展将是长期趋势,拉动 AI 相关产业链将深度受益。人工智能的快速发展推动数 据使用量的飙升,推动数据中心基础设施建设的快速增长。数据中心基础设施主要包括 IT 设 备、非 IT 设备、软件及建设工程。在 IT 设备采购成本中,服务器占比最大达 69%。网络设 备(即交换机和路由器)、安全设备、存储设备和光模块/光纤等分别占数据中心设备采购成 本的 11%、9%、6%和 5%,不同方案成本占比略有不同,但总体上服务器成本占 IDC 硬件成本 70%左右。
分别来看,AI 服务器需求量随着 AI 大模型应用加速落地、智算中心建设加速,国内外厂商 算力需求提升大幅增加。同时 AI 服务器单价远高于普通服务器,AI 浪潮下服务器市场呈现 量价齐升趋势。此外,以浪潮、曙光、华为、中兴为代表的货厂商正在加速高端 AI 服务器的 国产替代。 AI 芯片为服务器内部技术壁垒最高的组成部分,美国对我国芯片出口的封锁将加强我国芯片 行业发展动力与迫切性,信创政策同样将促进我国人工智能芯片国产替代进程加速,国产 AI 芯片厂商正加速成长,国产替代进程加快,以寒武纪思元系列、华为昇腾系列等为代表的国 产芯片产品性能已达到较高水平。
在 AI 建设推动下,海量数据高速传输需求驱动 400G/800G 交换机结构性升级,高速以太网 交换机细分市场继续保持强劲增长。高速率交换机占比的提升将带来产品单价提升、毛利率 提升,带动交换机行业新一轮快速发展。此外,根据盛科通信招股说明书,公司拟于 2024 年推出 Arctic 系列,交换容量最高达到 25.6Tbps,支持最大端口速率 800G,面向超大规 模数据中心,交换容量基本达到头部竞争对手水平。 光模块用量弹性大,根据我们在《AI 训练及推理有望带动高速率光模块用量》中的测算,DGX A100 架构中 200G 光模块与 GPU 的数量关系为 6:1,DGX H100 架构中 400G 光模块与 GPU 的比值关系为 1:1、800G 光模块与 GPU 的比值关系为 2.5:1,高端光模块用量显著提升。 国产厂商有望凭借着 400G 时代的先发优势,在 800G 光模块时代继续取得领先的优势,国产 厂商出海逻辑加强。 综上所述,我们认为服务器、AI 芯片、交换机及交换芯片、光模块产业将在 AI 浪潮中深度 受益。
2.2023 年全球 AI 服务器市场规模预计将达 248 亿美元
2.1.2022-2025 年全球 AI 服务器出货量年平均增长率预计将超 40%
AI 大模型的训练和应用将带动算力需求急速提升。AI 服务器作为承载和支持人工智能应用 设计的关键设备,其需求将受到算力需求的拉动大幅增长,具体表现为: 1)更高的性能需求:随着算法和应用的不断发展,人工智能应用对计算能力的需求越来越高, 需要更强大的处理器、显卡、内存等硬件资源,以支持更快速、更复杂的计算任务。 2)更大的存储需求:人工智能应用需要处理大量的数据,因此需要更大容量的存储设备来存 储模型、数据集和结果等数据。 3)更高的网络带宽需求:人工智能应用需要从不同的数据源中获取数据,并进行大量的数据 传输和交互。因此,需要更高带宽的网络接口来保证数据传输的效率和稳定性。 据 IDC 数据,2022 年,全球高性能 AI 服务器市场规模达 195 亿美元,同比增长 25%。IDC 预 计 2023 年市场规模将达 248 亿美元,同比增长 27%。我们认为,ChatGPT 的发布引爆 AI 发 展热潮,随着人工智能的加速发展,AI 服务器增速有望超过原有预期。根据北京研精毕智信 息最新数据,2022 年全年,全球 AI 服务器行业市场出货量达到 85 万台,同比增长约 11%, 到 2023 年中旬,AI 服务器市场出货量接近 60 万台,相比上年同期增长约 39%。根据 TrendForce 预估,2023 年全球 AI 服务器出货量将接近 120 万台,同比增长 38.4%,占整体 服务器出货量的比重约 9%。到 2025 年将增长至近 190 万台,2022-2025 年期间年平均增长 率达 41.2%。 从全球市场份额占比来看,2021 年浪潮信息市占率达 20.9%,位列行业第一。其次为戴尔、 HPE、联想、IBM,占比分别为 13.0%、9.2、5.8%、4.1%。
从需求端看,根据 TrendForce 统计数据,2022 年 AI 服务器采购中,北美四大云服务商微 软、谷歌、Meta、亚马逊位居前列,合计占比 66.2%。中国近年来随着 AI 建设浪潮兴起,字 节跳动的采购力道最为显著,2022 年采购占比达 6%,其次为腾讯、百度与阿里,分别占比约 2.3%、1.5%与 1.5%。
根据中国信息通信研究院发布的《中国算力发展指数白皮书(2022 年)》,2021 年全球计算设 备算力总规模达到 615 EFlops,同比增长 44%,其中智能算力规模为 232 EFlops,超级算力 规模为 14 EFlops;2021 年中国算力总规模达到 202 EFlops,其中智能算力规模达 104 EFlops, 增速 85%,占比超过 50%;预计 2030 年全球算力规模达到 56 ZFlops,平均年增速达到 65%。
2.2.AI 发展带动服务器单机提升近 20 倍,2022-2025 年出货量 CAGR 达 74.3%
据 OpenAI 测算,2012 年开始,全球 AI 训练所用的计算量呈现指数增长,平均每 3.43 个月 便会翻一倍,目前计算量已扩大 30 万倍,远超算力增长速度。在 2022 世界人工智能大会上, 华为轮值董事长胡厚崑预测,未来十年人工智能的算力需求将会增长 500 倍以上。3 月 29 日 贵州印发《面向全国的算力保障基地建设规划》,提出到 2025 年机架规模从现状的 10.8 万 架提高至 80 万架,三年时间增长达 7 倍;算力总规模到 2025 年要从现状的 0.81 Eflops 提 高至 10 Eflops,提升超 11 倍;大数据交易市场规模从目前的 3 亿元要提高至 2025 年的 100 亿元,增幅达到 32 倍。我们认为未来算力需求有较大提升空间,AI 服务器出货量有望深度 受益。
根据立鼎产业研究网,通用服务器价格一般为几千美金/台,而主流 AI 服务器价格多在 10- 15 万美金/台,单价提升近 20 倍。同时随着 AI 大模型应用加速落地、智算中心建设加速, 国内外厂商算力需求提升,AI 服务器需求量大幅增加。根据北京研精毕智信息最新数据,2022 年全年,全球 AI 服务器行业市场出货量达到 85 万台。根据 TrendForce 预估,2023 年全球 AI 服务器出货量将接近 120 万台,同比增长 38.4%,占整体服务器出货量的比重约 9%。到 2025 年将增长至近 190 万台,2022-2025 年期间年平均增长率达 41.2%。量价齐升将带动 AI 服务器行业蓬勃发展。 根据头豹研究院数据数据,2021年中国AI服务器市场规模达到53.9亿美元,同比增长68.6%; 2022 年中国 AI 服务器市场规模达到 67 亿美元,同比增长 24%。IDC 预计到 2025 年将市场规 模将达 103.4 亿美元,2021-2025 年年复合增长率为 17.7%,届时将占全球整体 AI 服务器市 场近三成,到 2026 年将增长至 123 亿美元。从竞争格局看,浪潮信息占据半壁江山,2021 年份额达 52.4%。
3.AI 快速发展带动芯片需求增加,国产替代逻辑加强
3.1.预计到 2026 年全球 AI 芯片市场规模将增长至 920 亿美元
人工智能芯片也被称为 AI 加速器或计算卡,即专门用于处理人工智能应用中的大量计算任 务的模块(其他非计算任务仍由 CPU 负责)。业界关于 AI 芯片的定义仍然缺乏一套严格和公 认的标准。比较宽泛的看法是,面向人工智能应用的芯片都可以称为 AI 芯片。根据前瞻产业 研究院,人工智能芯片根据其技术架构可以分为 CPU、GPU、FPGA、ASIC、类脑芯片;按照其 在网络中的位置可以分为云端 AI 芯片、边缘 AI 芯片、终端 AI 芯片;根据其在实践中的目标 可以分为训练芯片和推理芯片。
根据 Frost&Sullivan 数据,2021 年全球人工智能芯片市场规模为 255 亿美元。根据研究机 构 IDTechEx 数据,人工智能训练算法的复杂性正在以惊人的速度增长,其中运行新开发的 训练算法所需的计算量大约每四个月翻一番。Frost&Sullivan 预计 2023 年其市场规模将达 到 490 亿美元,到 2026 年则将增长至 920 亿美元。在 2022 世界人工智能大会上,华为轮值 董事长胡厚崑预测,未来十年人工智能的算力需求将会增长 500 倍以上。研究机构 IDTechE 预测到 2033 年,AI 芯片市场将增长至 2576 亿美元。我们认为,未来人工智能的算力需求增 长空间显著,AI 芯片作为人工智能的底层基石市场规模广阔。
在地区层面,欧美地区一直是全球 AI 芯片的重要市场,长期维持着行业领先地位。目前全球 AI 芯片市场主要被欧美地区的厂商所主导,全球头部厂商主要包括 AMD、Google、Intel、 NVIDIA 和 IBM 等。在数据中心/大模型领域,英伟达凭借其自身 CUDA 生态在 AI 及高性能计 算占据绝对主导地位。TrendForce 指出,目前在全球 AI 服务器市场上,英伟达的 GPU 已成 为主流芯片,市场份额约占 60-70%。其次是云计算厂商自主研发的 ASIC 芯片,市场份额超 过 20%。根据 Liftr Insights 数据,目前 NVIDIA 在北美数据中心 AI 芯片市场保持持续领 先,2022 年在美国数据中心 AI 加速市场,英伟达市场份额达 82%,AWS 和 Xilinx 分别占比 8%、4%,AMD、Intel、谷歌均占比 2%。
3.2.国产替代逻辑加强,2026 年我国 AI 芯片市场规模有望达到 1675 亿元
美国制裁与信创要求有望带动我国 AI 芯片行业充分受益。我国人工智能芯片起步晚,但在 政策的扶持下,逐渐发展壮大,渗透入各行各业。“十三五”规划时期,首次将人工智能芯片 列入国家发展规划中,之后出台的《新一代人工智能产业发展三年行动计划 2018-2020》,提 出重点扶持神经网络芯片,推动人工智能芯片在国内实现规模化应用。到 2022 年,“十四五” 规划提出重点发展数字技术创新,提高人工智能芯片的研发和应用;同时,“十四五”国民健 康规划提出大力推广人工智能芯片在医疗、卫生等公共领域的应用,切实保障民生,助力人 工智能芯片从研发落地到应用。总体来看,目前我国人工智能芯片与国际先进水平相比还有一定距离,所取得成就仅是在部分领域,整个行业还处于生命周期的萌芽期。根据美国半导 体工业协会数据,2022 年中国大陆芯片仅占全球市场份额的 7%。
2022 年 8 月,美国政府要求英伟达停止向中国出口两种用于人工智能工作的顶级计算芯片, 此次管制涉及英伟达 A100 和 H100 两款芯片,以及英伟达未来推出的峰值性能等同或超过 A100 的其他芯片。美国对我国芯片出口的封锁将加强我国芯片行业发展动力与迫切性,有 望加速我国人工智能芯片产业发展步伐和国产替代进程。 根据深圳发布的《关于促进消费持续恢复的若干措施》,原则上新增办公系统、业务系统中信 创产品的采购比例,金融、能源、教育、医疗、电信、交通等重点领域不低于 20%;新增关 键信息基础设施中信创产品的采购比例,党政机关、国资国企不低于 40%。我们预计信创政 策同样将促进我国人工智能芯片国产替代进程加速。根据 Frost&Sullivan 数据,2021 年我 国人工智能芯片市场规模达到 251 亿元,同比增长 41%。预计在政策、市场、技术等合力作 用下,中国 AI 芯片行业将快速发展,预计 2023 年市场规模有望突破 500 亿元,2026 年有望 达到 1675 亿元。 当前我国 AI 芯片厂商在高端训练芯片产品的集群应用与英伟达仍有一定差距,推理芯片性 能与英伟达差距相对较小。国内 AI 芯片以寒武纪思元系列、华为昇腾系列等为代表,产品性 能已达到较高水平。其余代表企业包括百度昆仑芯、景嘉微、龙芯中科、海光信息、壁仞科 技、沐曦、天数智芯、登临科技、摩尔线程等厂商。
3.3.国内 AI 芯片厂商布局
2020 年,寒武纪推出公司首款云端训练智能芯片思元 290,采用了 7nm 工艺,在不同条件下, 自适应精度训练算力理论峰值性分别高达 1024TOPS@INT4、512TOPS@INT8。2021 年寒武纪推 出思元 370 芯片,是寒武纪首款采用 Chiplet 技术的人工智能芯片,已经与数家头部互联网 企业在视觉、语音、图文识别、自然语言处理等场景下完成适配工作,并在通信运营商行业 达成初步规模化落地。2022 年世界人工智能大会上,公司透露了最新一代云端智能训练芯片 思元 590。 海光 DCU 产品以 GPGPU 架构为基础,是国内少有的具有全精度浮点数据和各种常见整型数据 计算能力的 GPGPU 产品,采用“类 CUDA”通用并行计算架构,能够较好地适配、适应国际主 流商业计算软件和人工智能软件,软硬件生态丰富,公司的 DCU 产品已得到百度、阿里等互 联网企业的认证。DCU 产品深算一号在 2022 年实现了在大数据处理、人工智能、商业计算等领域的商业化应用,具有最多 64 个计算单元,可以用于大模型的训练,目前公司已与国内多 家开发大模型的企业和研究所达成认证。下一代 DCU 产品深算二号、深算三号研发进展顺利。
2018 年 10 月,华为在全联接大会上发布首款全栈全场景 AI 芯片昇腾 310,在典型配置下可 以输出 16TOPS@INT8, 8TOPS@FP16,功耗仅为 8W,采用自研华为达芬奇架构,集成丰富的计 算单元, 提高 AI 计算完备度和效率,进而扩展该芯片的适用性。2019 年 8 月,华为在发布 会上正式推出昇腾 910,基于自研华为达芬奇架构 3D Cube 技术,实现业界最佳 AI 性能与能 效,架构灵活伸缩,支持云边端全栈全场景应用,半精度(FP16)算力达到 320 TFLOPS,整 数精度(INT8)算力达到 640 TOPS,功耗 310W。 百度于 2018 年推出 AI 芯片昆仑芯 1 代,基于昆仑芯自研架构 XPU 设计,采用 14nm 工艺, 算力规模为 256 TOPS@INT8,64 TFLOPS@FP16,针对云端推理场景,支持通用 AI 算法,目前 该芯片已在百度搜索引擎、小度等业务中部署数万片。2021 年 8 月,百度在百度世界大会上 推出昆仑芯 2,采用 7nm 工艺,基于新一代自研架构昆仑芯 XPU-R 设计,聚焦高性能、通用 性和易用性,相比 1 代产品通用计算核心算力提升 2-3 倍,算力规模为 256 TOPS@INT8,128 TFLOPS@FP16,可为数据中心高性能计算提供强劲 AI 算力。
2022 年 8 月,壁仞科技发布首款通用 GPU 芯片 BR100,采用 7nm 制程,并创新性应用 Chiplet 与 2.5D CoWoS 封装技术,兼顾高良率与高性能,16 位浮点算力达到 1000T 以上、8 位定点 算力达到 2000T 以上,单芯片峰值算力达到 PFLOPS 级别,是国内率先采用 Chiplet 技术、 率先采用新一代主机接口 PCIe 5.0、率先支持 CXL 互连协议的通用 GPU 芯片,针对人工智能 训练、推理,及科学计算等更广泛的通用计算场景开发。 2021 年 7 月,燧原科技发布第二代训练产品邃思 2.0 芯片、云燧 T20 训练加速卡和云燧 T21 训练 OAM 模组,邃思 2.0 芯片采用格罗方德 12nm 工艺,单精度 FP32 算力为 40TFLOPS,单精 度张量 TF32 算力为 160TFLOPS,整数精度 INT8 算力为 320TOPS。12 月公司发布第二代云端 人工智能推理加速卡云燧 i20,可广泛应用于计算机视觉、语音识别与合成、自然语言处理、 搜索与推荐等推理场景。
沐曦集成电路目前已推出 MXN 系列 GPU(曦思)用于 AI 推理,MXC 系列 GPU(曦云)用于 AI 训 练及通用计算,以及 MXG 系列 GPU(曦彩)用于图形渲染。首款异构 GPU 产品 MXN100 采用 7nm 制程,已于 2022 年 8 月回片点亮,主要应用于推理侧;应用于 AI 训练及通用计算的产 品 MXC500 已于 2023 年 6 月回片点亮。 天数智芯于 2020 年 12 月成功点亮国内第一款 7nm 云端训练通用 GPU 产品天垓 100,并于 2021 年 3 月正式对外发布,支持 200 余种人工智能模型;2022 年 12 月推出通用 GPU 推理产 品智铠 100,可提供 384TOPS@int8、96TFlops@FP16、24TFlops@FP32 的峰值算力。摩尔线程 于 2022 年 3 月推出基于 MUSA 统一系统架构、苏堤核心晶片打造的数据中心级多功能 GPU 产 品 MTT S2000,采用 12nm 制程,FP32 算力可达 12TFlops;11 月推出多功能 GPU 产品 MTT S3000,搭载了摩尔线程第二颗多功能 GPU 芯片春晓,FP32 算力可达 15.2TFLOPS。登临科技 的 GPU+产品在现有市场主流的 GPU 架构上,创新采用软硬件协同的异构设计,首款基于 GPU+ 的系列产品 Goldwasser 可运用于边缘至云计算各个应用场景,并已实现量产交付。
4.预计 2026 年我国交换机市场规模将达 48.1 亿美元
4.1.预计到 2027 年 400 Gbps 及更高速度的交换机将占数据中心交换机近 70%
AI 大模型应用爆发算力规模持续扩大,对服务器设备需求持续增长,驱动交换机需求量提 升。交换机是为接入网络节点提供独享电信号通路的网络设备,根据不同标准可以划分为不 同的交换机分类。根据传播介质和传播速度的不同,可以分为以太网交换机、快速以太网交 换机和 ATM 交换机,其中以太网交换机根据部署场景的不同可进一步分为企业网交换机和数 据中心交换机两类;根据产品情况,交换机可分为三类产品:品牌交换机、白盒交换机和裸 机交换机。从产业链来看,交换机产业链上游由六类资源提供商组成,分别是 PCB/电子元器 件、操作系统、交换芯片、CPU、光电芯片和光模块,上游供应商高度集中,思科在交换芯片 市场占比超过 50%;产业链中游是交换机厂商;产业链下游客户包括云计算厂商、电信运营 商、其他企业和家庭用户等。
高速率交换机占比将持续提升,带动行业快速发展。根据 IDC 报告,2022 年全球以太网交换 机市场规模同比增长 18.7%,达到 365 亿美元。其中数据中心细分市场 2022 年全年收入增长 22.6%,端口出货量增长 12.2%。分速率来看,在 AI 建设推动下,海量数据高速传输需求驱 动 400G/800G 交换机结构性升级,高速以太网交换机细分市场继续保持强劲增长。2022 年全 年,200/400 GbE 交换机市场收入增长超过 300%;100GbE 交换机市场收入增长 22.0%;25/50 GbE 交换机市场收入增长 29.8%。根据 Dell'Oro Group 报告显示,2021 年至 2026 年,以太 网交换机数据中心市场预计将在 2022-2027 年期间以近两位数百分比的年复合增长率增长, 未来五年的累计支出将超过 1000 亿美元;预计到 2025 年,800 Gbps 将超过 400 Gbps;预 计到 2027 年,400 Gbps 及更高速度的交换机将占数据中心交换机销售额的近 70%。高速率 交换机占比的提升将带来产品单价提升、毛利率提升,带动交换机行业新一轮快速发展。 随着国家新基建战略的推进、云计算技术和应用的快速发展,以及 AI 发展的带动,中国数据 中心交换机市场将成为国内厂家争夺的重点,根据 IDC 数据统计,2022 年中国数据中心交 换机市场规模达 31.8 亿美元,预计 2026 年市场规模将达到 48.1 亿美元,2022-2026 年复 合增长率为 10.9%。未来,我国数据中心交换机占交换机总量的比例将持续提升。根据 IDC 数据统计,中国数据中心交换机市场规模占交换机市场总规模的比例在 2021 年为 44.4%, 预计 2026 年该比例将上升至 51.7%。
交换机行业集中度较高,思科、华为、新华三等少数几家企业占据着绝大部分的市场份额。 根据 IDC 数据,全球市场方面,2022 年思科是市场份额为 41.1%,是交换机市场的绝对龙头; 前 5 家企业占据全球市场 70%以上份额。中国市场方面,2021 年中国交换机市场前五大品牌 厂商分别为华为、新华三、锐捷网络、思科和迈普技术,其市场份额分别为 40.0%、36.2%、 12.2%、5.4%和 1.5%,前五大厂商集中度达到 95.3%。
4.2.预计 2025 年中国商用以太网交换芯片市场规模将达 171.4 亿元
以太网交换设备由以太网交换芯片、CPU、PHY、PCB、接口/端口子系统等组成,其中以太网 交换芯片和 CPU 为最核心部件。以太网交换芯片为用于交换处理大量数据及报文转发的专 用芯片,是针对网络应用优化的专用集成电路。以太网交换芯片内部的逻辑通路由数百个特 性集合组成,在协同工作的同时保持极高的数据处理能力,因此其架构实现具有复杂性。部 分以太网交换芯片将 CPU、PHY 集成在以太网交换芯片内部。作为以交换机的核心元器件, 以太网交换芯片在很大程度上决定了以太网交换机的功能、性能和综合应用处理能力。 根据灼识咨询数据,以销售额计,2020 年全球以太网交换芯片市场规模达 368.0 亿元,预计 至 2025 年全球以太网交换芯片市场规模将达 434.0 亿元,2020-2025 年年均复合增长率为 3.4%。云计算的快速渗透、AI 和机器学习的兴起、5G 商用、WiFi6 等通信技术的发展推动中 国以太网交换芯片市场规模增长。根据中商产业研究院数据,2022 年中国商用以太网交换芯 片总体市场规模达到约 132.45 亿元,预计 2023 年市场规模将增至 150.07 亿元。根据盛科 通信招股说明书,灼识咨询预计至 2025 年中国商用以太网交换芯片市场规模将达到 171.4 亿元。数据中心用、企业网用、运营商用和工业用以太网交换芯片市场规模占比将分别达到 70.2%、20.7%、7.8%和 1.3%。
目前,国内商用以太网交换芯片行业集中度较高。根据灼识咨询数据,中国商用以太网交换 芯片市场以销售额口径统计,博通、美满和瑞昱分别以 61.7%、20.0%和 16.1%的市占率排名 前三位,前三名供应商合计占据了 97.8%的市场份额。盛科通信以 1.6%的市场份额排名第四, 在中国商用以太网交换芯片市场的境内厂商中排名第一。根据盛科通信招股说明书,公司目 前产品主要定位中高端产品线,产品覆盖 100Gbps~2.4Tbps 交换容量及 100M~400G 的端口 速率。公司拟于 2024 年推出 Arctic 系列,交换容量最高达到 25.6Tbps,支持最大端口 速率 800G,面向超大规模数据中心,交换容量基本达到头部竞争对手水平。
5.服务器需求放量,拉动配套光模块、光芯片需求显著提升
5.1.2025 年全球光模块市场规模有望达 113 亿美元,国产厂商份额提升
光模块目前主要应用市场为数通市场和电信市场和新兴市场。光模块在数通领域用于服务器 与交换机、交换机与交换机等之间的连接;在电信领域用于 AAU、DU、CU、核心网之间的链 接。在数据通信市场方面,200G、400G 及 800G 高速率光收发模块需求将在未来 5 年快速 上升。同时,通信设备接口板包含的接口密度越来越高,要求光收发模块的体积越来越小, 光收发模块正向高度集成的小封装发展。在电信市场方面,5G 前传、5G 中回传、有线宽带 接入、城域网和骨干网对光收发模块速率要求较高,长距离传输应用场景也越来越多。2022 年国内多个运营商已经开展城域波分/DCI 设备的招标。在城域波分/DCI 领域,光传输设备 以小型化、低成本为特点,应用场景也更为复杂和多样,对于传输设备的体积、可维护性和 灵活性提出了更高要求。由此带动可插拔光放大器和 200G/400G 10km-80km 光模块的需求。 整体上,光收发模块演进趋势为高速率、长距离和集成化。 根据 LightCounting 的数据,2016 年至 2021 年,全球光模块市场规模从 58.6 亿美元增 长到 73.73 亿美元。LightCounting 预测 2022 年全球光模块市场规模将增长至 81.32 亿美 元, 2025 年将达 113 亿美元。据中经产业信息研究网数据,我国光模块市场规模已从 2017 年的 131 亿元增长至 2021 年的 285 亿元,CAGR 达 21.45%。
国产厂商份额提升。近年来,我国光模块厂商在技术、成本、市场、运营等方面的优势逐渐 凸显,占全球光模块市场的份额逐步提升。根据 ICC 的报告,2015 年,全球前十大光收发 模块厂商仅海信宽带、光迅科技两家中国企业。根据 Odmia 报告,2021 年,光迅科技、中际 旭创、海信宽带、昂纳信息四家中国厂商进入了全球前十,合计占据全球 26%的市场份额。
一方面,AI 的发展将带来算力需求的大幅提升,进而带来服务器需求量大幅提升,拉动配套 光模块数量增加。另一方面,AI 服务器对高端光模块需求相较普通服务器提升,服务器与光 模块配套比例提高拉动光模块需求增加。 根据我们在《AI 训练及推理有望带动高速率光模块用量》中的测算,研究参考 NVIDA 的服务 器计算单位即 SuperPOD为例分析了 DGX A100 和 DGX H100架构中光模块与 GPU的数量关系。 测算得全光模块场景下 DGX A100 架构中 200G 光模块与 GPU 的数量关系为 6:1。
DGX H100 架构中光模块与 GPU 的数量关系计算模型与 A100 架构中类似,但由于 H100 的端口 数量有很大的扩展,交换机端口由 40 个变成了 64 个,并且为了避免固定尺寸的交换机出现 散热困难和相互挤压,H100 进行了端口缩并的设计,端口的宽度扩大到可以容纳两路模块进 入,因此需要搭配 800G 的光模块(类似于两路 400G 光模块)。通过测算得 DGX H100 架构中 400G 光模块与 GPU 的比值关系为 1:1,而 800G 光模块与 GPU 的比值关系为 2.5:1。
AI 发展转变市场对于光模块的预期,800G 光模块需求量有望快速增长。随着人工智能的快 速发展与商业化应用落地,光模块行业发展已经步入新阶段。国产厂商有望凭借着 400G 时 代的先发优势,在 800G 光模块时代继续取得领先的优势,以及在共封装光学领域取得突破。 近期海外大厂频繁加单 800G 光模块,人工智能发展带动算力需求进而带动光模块需求快速 提升逻辑得到验证。5 月 17 日,在投资者互动平台上,华工科技预计 800G 光模块出货量将 在 2023 年下半年快速增长,主要推动力集中在 AI 应用等带来的数据流量的增长、超预期的 数据中心带宽需求、以及光模块厂商技术的迭代。目前 800G 光模块已有部分厂商实现批量 交货,其余厂商也在研究、测试阶段,未来发展前景广阔。
5.2.低速率光芯片已实现高比例国产化替代,高速率光芯片国产替代空间大
光芯片是现代高速通讯网络的核心元器件,位于光通信产业链上游,在光模块中成本占比高。 光通信领域中,激光器芯片和探测器芯片合称为光芯片。光芯片与其他基础构件(电芯片、 结构件、辅料等)构成光通信产业上游,产业中游为光器件,包括光组件与光模块,产业下 游组装成系统设备,最终应用于电信市场,如光纤接入、4G/5G 移动通信网络,云计算、互 联网厂商数据中心等领域。光通信产业链中,光模块由光器件、电路芯片、PCB 及结构件构 成,其中光器件占光模块成本的 72%,光器件的核心为光收发组件,二者合计占光器件成本 的 80%,而在光收发组件中光芯片的成本占比最高,并且其性能直接决定光模块的传输速率。
我国光芯片企业已基本掌握 2.5G 及以下速率光芯片的核心技术,低速芯片市场基本实现国 产替代。2.5G 光芯片主要应用于光纤接入市场,产品技术成熟,国产化程度高,国外光芯片 厂商由于成本竞争等因素,已基本退出相关市场。根据《中国光电子器件产业技术发展路线 图(2018-2022 年)》,2018 年中国 10G 速率以下光通信芯片国产率已达到 80%,随着 5G 时代 到来,低速芯片逐渐市场边缘化。
根据 Omdia 统计,2021 年全球高速率(25G 以上)光芯片市场规模约 19 亿美元,预计到 2025 年提升至 43.4 亿美元,年复合增速达到 22.8%,呈现高增长态势。随着数据中心、核心骨干 网等场景进入到 400G 及更高速率时代,单通道所需的激光器芯片速率要求将随之提高。根 据 LightCounting 的统计,预计至 2025 年,400G 光模块市场规模将快速增长并达到 18.67 亿美元,带动 25G 及以上速率光芯片需求。根据源杰科技招股说明书,随着 5G 建设推进, 我国光芯片厂商在应用于 5G 基站前传光模块的 25G DFB 激光器芯片有所突破,数据中心 市场光模块企业开始逐步使用国产厂商的 25G DFB 激光器芯片,2021 年 25G 光芯片的国 产化率约 20%,但 25G 以上光芯片的国产化率仍较低约 5%,目前仍以海外光芯片厂商为主。
2021 年 11 月,工信部发布《“十四五”信息通信行业发展规划》,要求全面部署新一代通信 网络基础设施,全面推进 5G 移动通信网络、千兆光纤网络、骨干网、IPv6、移动物联网、卫 星通信网络等的建设或升级;统筹优化数据中心布局,构建绿色智能、互通共享的数据与算 力设施;积极发展工业互联网和车联网等融合基础设施。同时《中国光电子器件产业技术发 展路线图(2018-2022 年)》明确指出 2022 年 25G 及以上速率 DFB 激光器芯片国产化率超 过 60%,实现高端光芯片逐步国产替代的目标。政策支持有望充分促进光芯片国产化率提升。 目前,源杰科技 800G 高速光模块的 100G 光芯片产品目前研发进展顺利,主要的核心工艺难 点、设计难点已经实现突破,目前与正客户对标送样准备中;索尔思光电 53G 光芯片可以用 于 400G/800G 光模块产品,未来国产高速率光芯片发展空间巨大。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
相关报告
通信行业深度分析:AI产业热潮带动服务器、交换机、光模块及相关芯片行业蓬勃发展.pdf
通信行业2024上市公司见面会暨春季策略会:全球算力共振,国内新连接开启.pdf
自考操作系统原理-进程同步与进程通信.pptx
现代通信系统.pptx
通信行业专题报告:通感一体化网络,护航低空经济腾飞.pdf
国网信通研究报告:国网系信息通信服务商,电网数智化建设创造发展良机.pdf
淳中科技研究报告 :自研芯片发布在即,静待业绩拐点出现.pdf
科德教育研究报告:手握国产AI芯片独角兽股权,价值亟待重估.pdf
源杰科技研究报告:国内光芯片龙头受益AI算力需求,拓展CW光源布局硅光赛道.pdf
灿芯股份研究报告:一体化芯片设计服务龙头,赋能行业蓬勃发展.pdf
半导体材料行业专题报告:芯片功耗提升,散热重要性凸显.pdf
中际旭创研究报告:高速率光模块头部厂商,受益于AI硬件产业趋势.pdf
中际旭创研究报告:精准把握契机,800G光模块成就增长新起点.pdf
光模块行业专题报告:AI驱动网络变革,光摩尔定律加速.pdf
半导体行业深度报告:AI大模型风起云涌,半导体与光模块长期受益.pdf
中际旭创研究报告:AI时代,全球高速光模块龙头乘风而起.pdf