1、 海光信息:CPU/DCU 领军企业,盈利能 力持续提升
1.1 公司专注于 CPU/DCU 业务
海光信息成立于 2014 年,公司的主营业务是研发、设计和销售应用于服务器、 工作站等计算、存储设备中的高端处理器。公司的产品包括海光通用处理器 (CPU)和海光协处理器(DCU)。公司专注于高端处理器的研发、设计与技术 创新,掌握了高端处理器核心微结构设计、高端处理器 SoC 架构设计、处理器 安全、处理器验证、高主频与低功耗处理器实现、高端芯片 IP 设计、先进工艺 物理设计、先进封装设计、基础软件等关键技术。
公司于 2022 年在科创板上市。公司的控股股东为曙光信息产业股份有限公司, 截至 2023 年年报,曙光信息产业股份有限公司持股 27.96%。
1.2 营收利润双增长,注重研发投入
营收利润双增长,产品需求旺盛。2022 年,公司成功推出 CPU 产品海光三号, 与在售的海光二号,广泛应用于电信、金融、互联网、教育、交通等重要行业或 领域,得到了国内用户的广泛认可。海光 DCU 系列产品兼容国际主流商业计算 软件和人工智能软件,软硬件生态丰富,DCU 产品深算一号在 2022 年实现了 在大数据处理、人工智能、商业计算等领域的商业化应用。2023 年公司业务进 一步发展,通过技术创新、产品迭代、功能提升等举措保持了领先优势,市场竞 争力持续增长实现营收 60.12 亿元,同比增长 17.30%;实现归母净利润 12.63 亿元,同比增长 57.17%。
盈利能力逐步向好。公司 2019 年以来毛净利率均整体呈现增长趋势,其中 2022 年毛利率为 52.42%,净利率为 21.95%。2023 年公司的毛利率为 59.67%,同 比增长 7.25pct,净利率为 28.30%,同比增长 6.35pct。在费用管理方面,2023 年公司销售、管理、研发和财务费用率分别为 1.85%、2.23%、33.14%和-4.43%, 同比增长 0.27pct、-0.40pc、5.56pct 和-2.71pct。
公司注重研发投入,不断提高技术水平和产品的竞争优势。2023 年公司研发投 入为 28.10 亿元,同比增长 35.95%,研发投入占营业收入比 46.74%。公司研发技术人员 1,641 人,占员工总人数的 91.68%,79.28%以上研发技术人员拥 有硕士及以上学历。公司 2023 年研发费用为 19.92 亿元,研发费用率为 33.14%。
关联交易额度大幅提升,业绩支撑较强。公司与“公司 A 及其控制的其他公司” 关联交易额较高。根据公司 2023 年 4 月 17 日晚公告,从 2023 年 1 月 1 日截 至公告日,公司与关联人“公司 A 及其控制的其他公司”累积已发生的“销售 商品和提供劳务”交易金额达 6.33 亿元,公司 2023Q1 营收为 11.61 亿元。根 据公司 2024 年 4 月 11 日晚公告,从 2024 年 1 月 1 日截至公告日,公司与关 联人“公司 A 及其控制的其他公司”累积已发生的“销售商品和提供劳务”交 易金额达 22.00 亿元,有望为公司 2024 年一季度业绩提供较强支撑。此外,公 司预计 2023 年年度股东大会召开之日至 2024 年年度股东大会召开之日期间, 公司与关联人“公司 A 及其控制的其他公司”的“销售商品和提供劳务”交易 金额将达 63.22 亿元,对比 2022 年年度股东大会召开之日至 2023 年年度股东 大会召开之日期间公司与关联人“公司 A 及其控制的其他公司”“销售商品和 提供劳务”交易金额 43.00 亿元,同比增长约 47%。关联交易额度大幅提升有 望显著拉动公司营收及利润。
2、AIGC 推动服务器市场持续扩张
2.1 海内外服务器市场持续增长,AI 服务器采购力度加大
海内外服务器市场持续增长,国内市场一超多强。全球方面,根据 IDC 数据, 2022 年全球服务器出货量突破 1,516 万台,同比增长 12%,产值达 1,215.8 亿美元,预计未来四年内仍保持增长,2026 年全球服务器出货量达 1885.1 万台, 2022-2026 年全球服务器出货量 CAGR 为 5.59%,产值有望达到 1664.95 亿美 元,2022-2026 年产值 CAGR 为 8.18%。中国方面,据智研咨询数据,2022 年 中国服务器出货量为 434.1 万台,同比增长 5.36%。据 IDC,2022 年中国服务 器市场规模为 273.4 亿美元(1888.37 亿人民币),同比增长 9.1%。据中商 情报网预测,2023 年中国服务器出货量有望达到 449 万台,同比增长 3.43%; 中国服务器市场规模有望达到 308 亿美元,同比增长 12.66%。从市场份额(按 营业收入统计)上看,据 IDC,浪潮、新华三、超聚变、宁畅、中兴位居 2022 年中国服务器市场前五,市场份额占比分别为 28.1%/ 17.2%/ 10.1%/ 6.2%/ 5.3%,同比变动-2.7pct/ -0.3pct/ +6.9pct/ 0pct / +2.2pct。
IDC 认为,中期来看 X86 架构仍然会是主流的服务器,未来将会形成以 X86 为 核心多种架构并存的丰富算力市场。另外,随着互联网、云服务、电信、银行等 各行业超大规模客户不断扩张和升级扩容对于服务器的强劲需求,以硬件为中心 的集成硬件与软件支持多样化工作负载的解决方案将成为服务器厂商制胜未来 的关键。当前服务器产业正往技术多样化、服务定制化、软件定义、异构计算与 边缘计算方向发展。在高端处理器领域,由于 x86 处理器起步较早,生态环境 较其他处理器具有明显优势,因此,全球应用 x86 处理器的服务器销售额占全 部服务器销售额的比例约为 90%,销售量占比超过 96%,处于显著领先的地位。 在我国,根据 IDC 统计数据,2023 年全年,中国 x86 服务器市场出货量为 362 万台,预期 2024 年还将增长 5.7%。随着近几年人工智能技术快速突破,人工 智能产业链与商业化应用进入了高速发展阶段。根据《2023-2024 中国人工智 能计算力发展评估报告》,IDC 预计全球人工智能硬件市场(服务器)规模将从 2022 年的 195 亿美元增长到 2026 年的 347 亿美元;预估 2023 年中国人工智 能服务器出货量为 31.60 万台,同比增长 11.3%,2027 年将达到 69.1 万台。
AI 服务器有望迎高速增长。ChatGPT、文心一言等 AIGC 大模型带来计算资源需 求井喷,催生 AI 服务器需求增长,叠加配置升级带动单台 AI 服务器价值较通用 型成倍增长,量价齐升。据 TrendForce 预测,2023 年全球 AI 服务器出货量同 比增速可达 8%,2022~2026 年复合增长率将达 10.8%。据 IDC 数据,2021 年 全球 AI 服务器市场规模 156 亿美元,预计到 2025 年全球 AI 服务器市场将达到 318 亿美元,21-25 CAGR 为 19.5%;2021 年中国 AI 服务器市场规模达 350 亿 元,预计2025年中国AI服务器市场规模将达到702亿元,21-25 CAGR为19.0%。 海内外云巨头加大 AI 服务器采购。从 AI 服务器的采购量来看,据 TrendForce 统计,2022 年 AI 服务器采购量中,北美四大云端供应商 Microsoft、Google、 Meta、AWS 合计占比约 66%。根据 TrendForce 集邦咨询预估,从 2024 年全 球主要云端服务业者(CSP)对高端 AI 服务器(包含搭载 NVIDIA、AMD 或其 他高端 ASIC 芯片等)需求量观察,预估美系四大 CSP 包括 Microsoft、Google、 AWS、Meta 各家占全球需求比重分别达 20.2%、16.6%、16%及 10.8%。中国 近年来 AI 建设浪潮持续升温,字节跳动 2022 年采购占比达 6.2%,腾讯、阿里 巴巴、百度紧接其后,分别约为 2.3%、1.5%与 1.5%。海外云巨头对 AI 服务器 的需求更大,但随着国内 AI 大模型的开发及应用拉动更多 AI 服务器需求,中国 AI 服务器市场空间有望进一步提升。
2.2 服务器芯片配置或成服务器厂商制胜关键,AI 芯片需 求旺盛
芯片作为服务器算力的载体,与服务器整体性能紧密相关。传统服务器芯片组仅 由 2 颗 CPU 构成,价格在 800-850 美元/颗,而 AI 服务器芯片组通常需要搭载 2 颗 1000-1100 美元/颗的 CPU,训练 AI 服务器与推理 AI 服务器还分别需要增 加 8/4 颗 GPU 以提升服务器的综合算力。目前完整规格的英伟达 HGX H100 AI 服务器搭载配备 8 个 H100 GPU,总计 8 个 GPC 图形集群,72 个 TPC 纹理集 群,144 个 SM 流式多处理器,共计 18432 个 FP32 CUDA 核心,每组 SM 配备 4 个专用于 AI 训练的第四代张量核心 TensorCore,共计 528 个。相较于同等 GPU 数量配置的 A100,H100 在 HPC 和 AI 计算 (FP64/TF32/FP16/INT8)上 由 156TF/2.5PF/5PF/10POPS 提升至 480TF/8PF/32PF/32POPS,在多专家 (MoE) 模型训练速度上提升了 9 倍,大幅度提升万亿参数的 AI 大模型应用效率。 在 AIGC 快速发展背景下,服务器芯片配置或成服务器厂商制胜关键。 CPU 和 GPU 等核心芯片在高算力 AI 服务器领域成本占比可达 80%以上。根据 Wind 及芯八哥数据,在普通服务器中,CPU 和 GPU 等芯片在服务器中总成本 约 30%左右;在高性能服务器和推理服务器中,核心芯片的成本占比约为 50%; 在目前市场主流的高算力 AI 服务器领域,CPU 和 GPU 等核心芯片占比最高可 达 80%以上。
GPU、ASIC 和 FPGA 搭载率均将持续提升。IDC 预计到 2025 年人工智能芯片市 场规模达 726 亿美元,AI 芯片搭载率将会持续提升。根据嘉世咨询,2022 年全 球加速服务器市场规模为 67 亿美元,同比增长 24%,其中 GPU 市场规模为 60 亿美元,占比达 89%。目前每台 AI 服务器上约搭载 2 个 GPU,未来 GPU、ASIC 和 FPGA 搭载率均将持续提升。
2.3 国产 AI 芯片崛起,各家争相布局 AI 芯片
AI 芯片国产化进程加速。我国 AI 芯片产业起步相对较晚,技术上与世界先进水 平还存在差距。目前,Nvidia 控制着 80%的高端 AI 芯片份额,而我国 AI 芯片 市场较为分散,集中度较低。2024 年 4 月 1 日,美国拜登政府修订了旨在使中 国更难获得美国 AI 芯片和芯片制造工具的出口限制规定,新规定长达 166 页, 于 2024 年 4 月 4 日生效。在政策鼓励和市场驱动下,我国 AI 芯片行业加速发 展。根据嘉世咨询报告,2021 年我国 AI 芯片市场规模达 427 亿元,同比增长 124%,预估 2023 年我国 AI 芯片市场规模将会扩大至 1206 亿元。
我国各企业争相布局 AI 芯片。
1) 华为
Atlas 300T 训练卡(型号:9000)是基于昇腾处理器,配合服务器为数据中心 提供强劲算力的训练卡,加快深度学习训练进程。该训练卡具有高计算密度、大 内存、高带宽等优点,标准全高 3/4 长 PCIe 卡,适用于通用服务器,满足运营 商、互联网、金融等需要人工智能训练以及高性能计算领域的算力需求。该训练 卡支持 16 channel 4K(或 64 channel 1080P)60 FPS H.264/H.265,此外, 该训练卡 JPEG 解码能力为 1080P 2048 FPS(或等价的解码能力), 最高分辨 率为 8192*4320。 Atlas 800 训练服务器(型号:9010)是基于 Intel 处理器+华为昇腾处理器的 AI 训练服务器。该服务器拥有 4U 的超强算力密度,以及 8*100G RoCE v2 高速 接口的高速网络带宽,芯片间跨服务器互联时延缩短 10~70%。该服务器广泛应 用于深度学习模型开发和训练,适用于智慧城市、智慧医疗、天文探索、石油勘 探等需要大算力的行业领域。
2) 燧原科技
邃思 2.0 芯片基于人工智能领域专用处理器架构设计,提供强劲的全精度人工智 能算力、先进的存储方案、灵活的可扩展性,广泛支持视觉、语音语义、强化学习等各技术方向的模型训练。该芯片采用 GCU-CARA® 2.0 架构,提供多数据精 度 AI 算力支持,针对张量、矢量、标量等多计算范式提供领先性能,支持指令 驱动、可编程的融合式数据流架构,提供软件透明、基于任务的智能调度。该芯 片基于独家 GCU-LARE®技术支持专属 P2P 通道,提供互联高带宽低延时,高效 应对多卡间高并发高流量的数据通信需求,提升分布式训练性能。
3) 沐曦
曦云 C 系列通用 GPU(GPGPU)芯片是针对智算及通用计算的完美解决方案。沐 曦自主知识产权架构提供强大高精度及多精度混合算力,片间互联 MetaXLink 无缝连接多 GPU 系统,自主软件栈 MXMACA 提供全面生态解决方案,可广泛 应用于智算以及通用计算、教育和科研等场景。
4) 壁仞科技
壁仞科技 BR104 在 BERT 模型下达到了英伟达 A100 单卡性能的 1.58 倍。壁砺 ™106M 产品形态为 OAM 模组,凭借强大的供电和散热能力,能够充分解放澎 湃算力,驱动包括人工智能深度学习在内的通用计算领域高速发展。
5) 寒武纪
MLU370-X8 采用双芯思元 370 配置,为双槽位 250w 全尺寸智能加速卡,提供 24TFLPOS(FP32)训练算力和 256TOPS (INT8)推理算力,同时提供丰富的 FP16、BF16 等多种训练精度。基于双芯思元 370 打造的 MLU370-X8 整合了两 倍于标准思元 370 加速卡的内存、编解码资源,同时 MLU370-X8 搭载 MLU-Link 多芯互联技术,每张加速卡可获得 200GB/s 的通讯吞吐性能,是 PCIe 4.0 带宽 的 3.1 倍,支持单机八卡部署,可高效执行多芯多卡训练和分布式推理任务。
3、掌握 CPU/DCU 核心技术,产业生态完善
3.1 海光 CPU/DCU 持续迭代
公司的产品包括海光通用处理器(CPU)和海光协处理器(DCU),CPU 产品 对公司营业收入的贡献度较高,DCU 产品的营业收入不断增长。在 AIGC 持续快 速发展的时代背景下,公司拥有先进算法和强大计算能力,随着算法和计算能力 与人工智能应用场景紧密结合,业务逐步落地。海光 CPU 是当前生态兼容性最 优异的芯片之一,完全能够满足商业市场需求;海光 DCU 兼容“CUDA”生态, 对文心一言等大多数国内外主流大模型适配良好。依托 DCU 可以实现 LLaMa、 GPT、Bloom、ChatGLM、悟道、紫东太初等为代表的大模型的全面应用,从 大模型生态上 DCU 已经达到国内领先水平。
3.1.1 海光 CPU:产品性能领先,国产进程加速
海光 CPU 系列产品兼容 x86 指令集以及国际上主流操作系统和应用软件。作 为服务器和工作站的重要组成部件,CPU 在计算、存储设备中发挥了至关重要 的作用。海光 CPU 主要面向复杂逻辑计算、多任务调度等通用处理器应用场景 需求,兼容国际主流 x86 处理器架构和技术路线,具有先进的工艺制程、优异 的系统架构、丰富的软硬件生态等优势。海光 CPU 按照代际进行升级迭代,每 代际产品按照不同应用场景对高端处理器计算性能、功能、功耗等技术指标的要 求,细分为海光 7000 系列产品(最多集成 32 个处理器核心)、海光 5000 系列 产品(最多集成 16 个处理器核心)、海光 3000 系列产品(最多集成 8 个处理 器核心)。2023 年上半年,海光 CPU 系列产品海光三号为主力销售产品,海光 四号、海光五号处于研发阶段。海光三号系列芯片最高规格具备 32 核心 64 线 程,拥有多达 128 条 PCle4.0 通道,支持内存频率提升至 3200MHZ。相比上一 代产品,海光三号的整体实测性能提升了约 45%。在 SOC 设计、I/O 带宽、取 指单元、功能模块、防御机制等方面,海光三号均做了不同程度的优化,综合性 能大幅跃升。
公司通过与 AMD 合作,获得了 x86 处理器设计核心技术,进入到 x86 处理器设 计领域,研制出符合中国用户使用需求、兼具“生态、性能、安全”三大特点的 国产 x86 架构处理器产品。海光 CPU 具有优异的产品性能、良好的系统兼容性 和较高的系统安全性。
1)优异的产品性能。海光 CPU 使用先进的处理器微结构和缓存层次结构,改进 了分支预测算法,使得每个时钟周期执行的指令数得到显著提高;依托先进的 SoC 架构和片上网络,海光 CPU 集成了更多处理器核心;采用先进的工艺制程 和物理设计方法,实现了处理器高主频设计,使海光 CPU 产品具有优异的产品 性能。公司在国内率先完成了高端通用处理器和协处理器产品成功流片,并实现 了商业化应用。公司产品性能达到了国际上同类型主流高端处理器的水平,在国 内处于领先地位。
2)良好的系统兼容性。海光 CPU 可以兼容国内外主流操作系统、数据库、中 间件等基础软件及广泛的行业应用软件。
3)较高的系统安全性。海光 CPU 通过扩充安全算法指令、集成安全算法专用 加速电路等方式,有效提升了数据安全性和计算环境的安全性,原生支持可信计 算。海光 CPU 支持国密算法,扩充了安全算法指令,集成了安全算法专用加速 电路,支持可信计算,大幅度地提升了高端处理器的安全性,可以在数据处理过 程中为用户提供更高效的安全保障。
产业应用多元,信创趋势加速国产替代。使用海光 CPU 的服务器主要应用与电 信运营商、金融、互联网等领域,例如,电信运营商云服务资源池系统支撑云业 务应用,银行和证券公司查询、交易系统,互联网的搜索、计算服务、存储等应 用;使用海光 CPU 的工作站主要应用场景为工业设计和应用、图形图像处理, 例如 VR、AR 图形渲染场景,以及智能工厂数字孪生应用等。此外,海光 CPU 性能优异,软硬件生态丰富,安全可靠,得到了国内用户的高度认可,海光 CPU 在国产处理器中具有非常广泛的通用性和产业生态,已经广泛应用于电信、金融、 互联网、教育、交通等重要行业或领域。随着信创趋势的深化,海光 CPU 有望 充分受益于国产替代进程的加速。
3.1.2 海光 DCU :采用 GPGPU 架构,AI 浪潮机遇期
海光 DCU 以“类 CUDA”良好的兼容性,为用户提供强大的计算服务能力。海 光 DCU 属于 GPGPU 的一种。CUDA 是一种由 NVIDIA 推出的通用并行计算架 构,包含了应用于 NVIDIA GPU 的指令集(ISA)以及 GPU 内部并行计算引擎。 海光 DCU 协处理器全面兼容 ROCm GPU 计算生态,由于 ROCm 和 CUDA 在 生态、编程环境等方面具有高度的相似性,CUDA 用户可以以较低代价快速迁移 至 ROCm 平台,因此 ROCm 也被称为“类 CUDA”。因此,海光 DCU 协处理 器能够较好地适配、适应国际主流商业计算软件和人工智能软件,软硬件生态丰富,可广泛应用于大数据处理、人工智能、商业计算等计算密集类应用领域,主 要部署在服务器集群或数据中心,为应用程序提供高性能、高能效比的算力,支 撑高复杂度和高吞吐量的数据处理任务。
海光 DCU 按照代际进行升级迭代,每代际产品细分为 8000 系列的各个型号。 海光 8000 系列具有全精度浮点数据和各种常见整型数据计算能力,具有最多 64 个计算单元,能够充分挖掘应用的并行性,发挥其大规模并行计算的能力,快速 开发高能效的应用程序。截至 2023 年半年报,海光 DCU 系列产品深算一号为 公司 GPGPU 主要在售产品。根据公司 2023 年 9 月投资者交流记录,深算二号 已经发布并实现商用,深算二号实现了在大数据处理、人工智能、商业计算等领 域的商业化应用,具有全精度浮点数据和各种常见整型数据计算能力,性能相对 于深算一号实现了翻倍的增长。根据公司 2024 年 3 月 13 日和 15 日上证 e 互动 投资者问答,公司深算三号和深算四号产品研发进展顺利。 海光 DCU 具有强大的计算能力、高速并行数据处理能力和良好的软件生态环境 等优势。 1)强大的计算能力。海光 DCU 基于大规模并行计算微结构进行设计,不但具 备 强大的双精度浮点计算能力,同时在单精度、半精度、整型计算方面表现同 样优异,是一款计算性能强大、能效比较高的通用协处理器。 2)高速并行数据处理能力。海光 DCU 集成片上高带宽内存芯片,可以在大规 模数据计算过程中提供优异的数据处理能力,使海光 DCU 可以适用于广泛的应 用场景。 3)良好的软件生态环境。海光 DCU 采用 GPGPU 架构,兼容“类 CUDA”环 境,解决了产品推广过程中的软件生态兼容性问题。公司通过参与开源软件项目, 加快了公司产品的推广速度,并实现与 GPGPU 主流开发平台的兼容。
DCU 产品对文心一言等大多数国内外主流大模型适配良好,已获百度、阿里等 互联网企业的认证。在 AIGC 持续快速发展的时代背景下,与业务紧密结合的人 工智能应用场景逐渐落地,拥有先进算法和强大计算能力的企业成为了最主要的 推动者。海光 DCU 兼容“CUDA”生态,对文心一言等大多数国内外主流大模 型适配良好。依托 DCU 可以实现 LLaMa、GPT、Bloom、ChatGLM、悟道、紫 东太初等为代表的大模型的全面应用,从大模型生态上 DCU 已经达到国内领先 水平。公司的 DCU 产品选择的是 GPGPU 的技术路线和“类 CUDA”生态,生 态最优,是国内少有的具有全精度浮点数据和各种常见整型数据计算能力的 GPGPU 产品,可以同时支持科学计算和人工智能加速计算大规模应用,目前主 要部署在服务器集群或数据中心,为应用程序提供性能高、能效比高的算力,支 撑高复杂度和高吞吐量的数据处理任务。在互联网领域,公司的 DCU 产品已得 到百度、阿里等互联网企业的认证,并推出联合方案,打造全国产软硬件一体全 栈 AI 基础设施。公司持续看好该领域的发展前景,也将积极把握市场机遇,加大 对这一领域的研发投入,充分利用公司在高端处理器方面的研发成果,突破海光 研发关键技术,完善生态系统,力求进一步拓展海光处理器在互联网行业的深度 应用。
3.2 核心技术优势突出,优质产业链带动公司成长
高端处理器设计复杂,其核心技术此前仅掌握在几家国际领先企业手中。海光信 息是少数几家同时具备高端通用处理器和协处理器研发能力的集成电路设计企 业。公司在高端处理器及相关领域开展了系统化的知识产权布局,截至 2023 年 12 月 31 日,公司累积取得发明专利 670 项、实用新型专利 90 项、外观设计专 利 3 项、集成电路布图设计登记证书 228 项、软件著作权 244 项。 海光高端处理器产品已经得到了国内行业用户的广泛认可。公司逐步开拓了浪 潮、联想、新华三、同方等国内知名服务器厂商,开发了多款基于海光处理器的 服务器,有效地推动了海光高端处理器的产业化。公司利用其高端处理器在功能、 性能、生态和安全方面的独特优势,联合整机厂商、基础软件、应用软件、系统 集成商和行业用户,建立了基于海光高端处理器的产业链。海光 CPU 已经应用 到了电信、金融、互联网、教育、交通等行业;海光 DCU 主要面向大数据处理、 商业计算等计算密集型应用领域以及人工智能、泛人工智能应用领域展开商用。
海光信息在国内率先研制完成了高端通用处理器和协处理器产品,并实现了商业 化应用。相较于国外厂商,海光根植于中国本土市场,更加了解中国客户的需求, 能够提供更为安全可控的产品和更为全面、细致的运营维护服务,具有本土化竞 争优势。自 2018 年来,国内多家知名服务器厂商的产品已经搭载了海光 CPU 芯 片,并成功应用到工商银行、中国银行等金融领域客户,中国石油、中国石化等 能源化工领域客户,并在电信运营商的数据中心类业务中得到了广泛使用。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
相关报告
海光信息跟踪报告:CPU和DCU领军企业引领AI芯片国产浪潮.pdf
海光信息研究报告:信创造就X86CPU龙头,AI打开DCU广阔空间.pdf
海光信息研究报告:以CPU业务为基,横向拓展AI芯片业务,国产AI芯片迎历史机遇期.pdf
海光信息研究报告:国产CPU+DCU龙头,信创+AI双轮驱动高速增长.pdf
海光信息分析报告:拥抱算力之海,国产芯片之光.pdf
海光信息(688041)研究报告:国产CPU及DCU领军企业.pdf
超威半导体研究报告:CPU攻城略地,GPU仍需磨炼.pdf
关于流水线CPU.pptx
龙芯中科研究报告:吹响CPU指令集自主可控号角,奋楫前行,踏浪而歌.pdf
国芯科技研究报告 :聚焦嵌入式CPU车载MCU助力成长.pdf
《微机与操作系统贯通教程》第4章:CPU与进程管理.pptx
科德教育研究报告:手握国产AI芯片独角兽股权,价值亟待重估.pdf
英伟达研究报告:受益数据中心AI芯片高景气度,上游供应链响应快速.pdf
AMD公司研究:24年成长可期,AI芯片MI300驱动公司转型.pdf
英伟达研究报告:智能计算引领者,AI芯片生态构筑宽广护城河.pdf
超威半导体研究报告:MI300重磅发布,剑指AI芯片市场.pdf