1、 引言:AIGC 迎技术与应用拐点,大模型+云计算走向全民化、普惠化
2023 年可以称作“AIGC”突破元年,在 ChatGPT 率先打破格局之后,国内厂 商纷纷跟进大模型产品,如百度文言一心、讯飞星火、腾讯混元、华为盘古、阿里 通义千问等。大模型所引领的 AIGC(生成式 AI)浪潮不仅限于语言模型的革命, 还将涉及各领域的生产、学习、工作和管理等,经过大规模预训练的模型、云计算 与开源的融合正在推动生成式人工智能(生成式 AI)的全民化,这也将带动计算力 的“普惠化”。据 Gartner 预测,使用生成式 AI 的 API 或模型、或在生产环境中部署 支持生成式 AI 的应用的企业比例,将从 2023 年初的不到 5%提升到 2026 年的 80%; 这一背景下涌现的技术趋势还包括 AI 增强开发、习得性智能应用、数字人“客户”、 行业云平台等等,共同驱动全球产业深化发展。
2、 AI 算力是新时代核心基建,复盘第三方数据中心看算力租赁厂商增长路径
ChatGPT 的诞生象征着全球 AI 领域一次深刻而革命性的变革。作为一款基于 GPT-3.5 架构的先进 AI 模型,ChatGPT 不仅引领了自然语言处理领域的发展,而且 带动了AI行业对于高性能算力的需求;这一需求正在推动着硬件领域的创新和投资, 特别是针对高性能 GPU 和云计算基础设施的发展,尤其是英伟达高性能 GPU 为代 表的 AI 训练/推理硬件成为当下算力建设的核心资源。
当下,微软公司凭借对 OpenAI 的整合并利用其庞大的资源和技术实力,同时 推进大规模 AI 模型和强大的计算基础设施,已经成为 AI 竞争中不可忽视的顶级巨 头。Azure OpenAI 业务作为微软大模型侧的核心布局,新增客户数量持续突破,其 GPT3.0/3.5/4.0 的陆续亮相率先打造了全球大型语言模型品牌壁垒;其全球影响力和 资源投入使得微软公司也成为众多 AI 技术公司的第三方算力供应商,以应对大模型 参数量快速这种所带来的计算挑战。
OpenAI 等 AI 板块的快速增长很大程度也得益于微软基于英伟达 A100 及 H100 等 GPU 的算力集群作为底座支持。微软通过持续布局 AI 算力基础设施,搭建了全 面的公有/私有/混合云服务,除了研发 AI 需求的自用部分外,还提供服务器云租赁 业务,在典型场景上与亚马逊 AWS、谷歌云竞争。2023Q3,微软 AI 相关业务已贡 献了 Azure 业务 3%的增长,并潜在驱动了客户提前切入 Azure 服务以准备获得未来 AI 服务的意愿。据 Bernstein 估计,微软平均每张英伟达 A100 GPU 每小时可赚进 1.5 美元,满利用率下每月约 1000 美元(约为 7300 元人民币),且 GPU 算力租赁业 务产生的毛利率高达 40%以上。
云计算服务是数字化时代的核心基建,而“租赁”形式则是其商业模式的外显。 算力租赁并不算一个全新的概念,其本身可以是诸如微软 Azure、AWS、阿里云等公 有云、混合云服务的一面具体指称,但我们总体更关注专门从事算力建设到租赁解 决方案业务的第三方厂商,核心在于其发展模式的可见度与高速成长性。这一模式 在前几代数字化基建加速建设的 2010 年左右便已涌现。回顾过去十年,可以发现与 GPU 第三方算力租赁具有诸多十分类似价值要素的商业模式,比如在 2014-2020 年 左右快速成长的第三方数据中心厂商,两者都是在行业突破期通过绑定核心客户需 求,然后汇聚产业资源、实现算力硬件方案,通过稳定的租赁协议来实现平稳现金 流,其后不断循环发展,并在这一过程中建立起足够技术积累。
2014-2018 年期间第三方数据中心厂商把握行业蓝海期实现高速扩张,万国数据、 奥飞数据 4 年 CAGR 高达 50%以上,零售型数据中心龙头光环新网更是超过 90%。 高成长性与厂商商业模式密不可分。1)零售型数据中心:通过绑定互联网、金 融等优质客户,合同期通常在 1 年左右;具备较强议价能力,前期毛利率较高,但 在市场成熟后也会面临各方更多竞争,光环新网是典例;2)批发型数据中心:万国 数据等批发型厂商通过绑定大客户,合同往往长达 3-5 年(可达服务器全生命周期) 实现长协稳定供应,从而得以在控制经营风险的前提下持续高速扩张,营收增速和 毛利率都实现长期稳定。
锚定优质客户、重资产、低营销是行业发展特点。从各大第三方数据中心的发 展历程来看,固定资产+在建工程比例普遍较高,构成非流动资产的主要部分,非流 动资产的占比整体在 60%-90%。而在市场推广方面,不论是零售还是批发型厂商都 可通过绑定长期合作的优质客户,如大型互联网公司、云计算龙头、金融央企等等, 从而实现需求的稳步增长,对推广费用的需求相对常规云服务公司更低。
从第三方数据中心厂商的快速扩张,可以看出客户-资金资源-算力云基建的三维 良性循环具备充分的现实案例。类比第三方数据中心厂商,新兴的第三方 AI 算力租 赁厂商有望同样复现数据中心行业前期高速成长路径,实现优质客户合作驱动下, 利用自身渠道和资源整合能力,打造客户-资金-AI 算力的螺旋型扩张。
算力租赁作为 AI 算力供不应求下涌现的市场新兴概念,广义上可以指所有提供 云租赁业务的算力服务和经营方式,即囊括了各类对算力用量或服务器租用时间等 要素进行计费的模式,如各类型的公有云、私有云;而从狭义上看,则特指面向确 定性的客户需求采用类似“项目制”、“合同制”的方式进行算力建设和方案集成, 但最终不转让算力资源所有权而是对客户进行租赁计费的模式。从技术的实现角度 来看,算力租赁本身并没有什么特殊性,同样是经由云平台构建来向客户提供云上 的弹性算力服务,因此许多市场观点用广义的“租赁”概念对其进行泛化理解则显 得具有一定迷惑性,因为本质上绝大多数算力云的服务过程中都具备“租赁”的特 点,但并不都等同于算力租赁,因为后者更多体现为算力云的一种特殊商业模式。
算力租赁模式类似过去第三方数据中心,具备极强的扩张“侵略性”,有利于优 质厂商快速崛起。当下行业属于跑马圈地的前中期阶段,算力租赁厂商主要凭借其 资金、渠道、资源整合能力来实现快速占领市场、跨赛道入局等等,有望实现快速 产业扩张;而从中长期角度来看,算力租赁本身还是做的“云服务”生意,因此需 要在扩张同时建立其技术壁垒和行业 know-how 积累,从而实现具备高产品竞争力的 内生增长循环。
综上所述,我们认为第三方算力租赁厂商参考 IDC 行业的发展经历,有望复现 第三方数据中心服务商的快速崛起过程,通过聚焦算力可得性、可用性等资源层优 势,实现优质客户兑现为长期稳定现金流,支撑螺旋式向上扩张。
3、 洞察趋势:AI 大模型引领算力服务商发展,GPU 基建建设加速扩张
近年来国内数字经济快速发展,云计算行业作为最重要的基础设施产业之一对 下游增长起到关键的促进作用,据中国信息通信院发布的《中国算力发展指数白皮 书(2022 年)》测算,算力每投入 1 元,将带动 3-4 元的经济产出;而随着人工智能、 数字孪生、元宇宙等新兴领域的崛起,各类算力需求规模正快速增长,其中 GPU 算 力对应“智能算力”的主要部分,将首先受益发展。
智能算力即人工智能算力,由 GPU(图形处理器)、ASIC(专用集成电路)、FPGA (现场可编程逻辑门阵列)、NPU(神经网络处理器)等各类专用芯片承担人工智能 场景应用的计算,在专门应用下具有性能更优、能耗更低等优点。2023 年 10 月,工业和信息化部、中央网信办、教育部、国家卫生健康委、中国 人民银行、国务院国资委等六部门联合印发《算力基础设施高质量发展行动计划》, 提出到 2025 年实现国内算力规模超 300 EFLOPS,其中智能算力占比达到 35%(105 EFLOPS)。
当下全球智能算力快速增长,据中国信通院数据,2022 年底全球算力总规模达 到 650 EFLOPS,其中通用算力规模为 498 EFLOPS,智能算力规模为 142 EFLOPS, 超算算力规模为 10 EFLOPS;智能算力规模同比增长 25.7%,规模占比达 21.9%。国 内市场方面,2022 年算力总规模为 180 EFLOPS,排名全球第二,其中通用算力规 模为 137 EFLOPS,智能算力规模为 41 EFLOPS,超算算力规模为 2 EFLOPS。中国 智能算力同比增长 41.4%,规模占比达 22.8%。按照六部门联合印发《算力基础设施 高质量发展行动计划》对 2025 年智能算力建成 105 EFLOPS 的规划,预计 2022-2025 实现 36.8% CAGR。
智能算力在 AI 深度学习中的应用主要体现在以下几个方面:一是训练模型,深 度学习模型具有复杂的结构和大量的参数,需要大量的计算资源进行训练,智能算力通过 GPU、TPU 等高性能的计算设备,加速深度学习模型的训练过程。二是推断 推理,智能算力通过高性能计算设备和专门的推理芯片加速深度学习模型的推断过 程,提高了模型的实时性和稳定性。三是模型优化,通过智能算力可以对模型进行 自动化的超参数调优、网络结构搜索、模型剪枝等操作,进一步提高模型的精度和 效率。
GPU 芯片多用于图形图像处理、复杂的数学计算等场景,可较好支持高度并行 的工作负载,常用于数据中心的模型训练,也可以用于边缘侧和端侧的推理工作负 载。2021 年中国仍以 GPU 为主实现数据中心计算加速,据 IDC 测算 GPU 市场占有 率近 90%,而 ASIC、FPGA、NPU 等非 GPU 芯片市场占有率超过 10%,其中 NPU 芯片设计逻辑更为简单,常用于边侧和端侧的模型推理,并生成结果,在处理推理 工作负载时,具有显著的能耗节约优势,因此增长较快。
从工作负载角度而言,据 IDC 数据,2021 年中国数据中心用于推理的 AI 服务 器占比已达 57.6%,预计这一比例将在 2026 年提升至 6 成。伴随企业人工智能应用 成熟度逐步递增,企业将把精力更多从人工智能训练转移到人工智能推理工作负载 上,这意味着人工智能模型将逐步进入广泛投产模式,因此智算中心的基础设施规 划和运营支出规划更加需要追求服务器利用率提升和性能利用率的提升,以实现更 好经济性。
以计算机视觉为例,需要 GPU 加速作为算力基础,实现大量数据训练和 AI 模 型训练,比如通过卷积神经网络技术进行图像分类、目标检测和图像分割等任务, 从而达成图像分类和目标检测、人脸识别、图像生成和风格迁移、三维重建和虚拟 现实、视频分析和行为识别等具体应用。
大模型的高效训练通常需要具备千卡以上高算力 AI 芯片(GPU 为主)构成的 AI 服务器集群支撑。在全球科技企业加大投入生成式 AI 研发和应用的大背景下, 配置高算力 AI 芯片的 AI 服务器需求也不断高涨。随着市场对 AI 计算力需求的不断 攀升,全球已有上百家公司投入新型 AI 加速芯片的开发,AI 计算芯片多元化趋势 愈发显著,但在推向产业落地的过程中,依然存在大量的定制化工作以及现有标准 未能完全覆盖的领域,包括多元 AI 芯片适配、AI 算力资源管理和调度、数据整合 及加速、深度学习开发环境部署等多个方面。
IDC 预测,全球 AI 计算市场规模将从 2022 年的 195.0 亿美元增长到 2026 年的 346.6 亿美元;其中生成式 AI(AIGC)计算市场增速遥遥领先,预计 2022-2026 年 实现 90%以上 CAGR。下游需求也将带动 AI 服务器增量,IDC 数据显示 2021 年全 球 AI 服务器市场同比增长 39.1%,其中中国市场增长至 59.22 亿美元。预计到 2026 年,全球人工智能服务器市场将达到 347 亿美元,将占整个服务器市场的 21.7%,较 2022 年的 16.6%占比持续提升,且中国市场预计将达 123.37 亿美元。据 IDC 数据, 2021 年浪潮信息、戴尔、HPE 分别以 20.9%、13.0%、9.2%的市占率位列全球前三, 三家厂商总市场份额占比达 43.1%。
4、 发掘壁垒:聚焦软硬件多元优化,虚拟化与资源调度促成本效率提优
区别于 CPU 算力,智算中心聚焦于 GPU 算力,用以支持广泛的计算密集型应 用场景,从单卡到万卡集群均可实现,核心价值在于提供高性能的、可扩展的算力 资源,以满足多样化的计算需求。不同于过去 CPU 场景较多自建,目前业内自建 GPU 算力资源厂商较少,需要第三方算力服务商为有高性能需求的客户提供算力云 租赁服务,帮助用户摆脱自建基础设施的负担,提供性价比优越的服务。具体业务 模式包括两类,一是云计算模式,应对推理需求为主;二是超算模式,应对大型模 型训练为主。
智算需求增长背景下,云计算服务厂商基于 AI 服务器等算力基建,能提供更丰 富的算力支持,如百度、腾讯、阿里等互联网巨头及各家专门服务商通过 aaS(as a Service)服务提供 AI 平台和 AI 服务,从而实现快速的产品迭代能力和丰富的场景 化人工智能能力;2023 年 3 月英伟达也亲自推出算力租赁服务方案“DGX 云”,与 微软云、谷歌云、甲骨文等全球顶级云服务商共同打造,企业可以直接线上按月租 用英伟达 DGX AI 超级计算机,灵活租用算力服务。
按照英伟达官方对一个 1.6 万卡超大规模智算中心按照运营 4 年的计算: 成本端:需要投入 10 亿美元建设和运营成本,其中数据中心基建投资和运营维 护成本(约占一半)、GPU 购置成本(约占 40%)是关键。 收入端:按照每张 GPU 每小时定价 4 美元计算,4 年共可收入 25 亿美元,其中 提升算力利用率、实现集群性能调优是算力租赁厂商核心竞争力的体现。按照实现 15%算力利用率提升、实现 25%集群性能调优来预测,预计这两方面提升分别将在 收入中占到 3.5 亿美元、6 亿美元价值量。
加速计算需要全栈创新,要求厂商对计算的每一层级有充分掌控和经验积累, 从芯片和系统到软件和算法,实现对问题领域深入的了解。以供应端的 NVIDIA 为 例,通过硬件+软件架构多层创新,其在加速软件和将计算性能扩展上远远超出了摩 尔定律,构建了全栈平台 NVIDIA HPC、NVIDIA AI 和 NVIDIA Omniverse,实现加 速高性能计算、AI 和工业数字化工作负载,对数据中心规模工作负载的加速可以跨 越数千个计算节点,将网络和存储视为计算结构的一部分;平台应用已经从云和企 业数据中心扩展到超级计算中心、边缘计算和 PC 等。目前国内外主要 AI 云服务商 的平台架构也广泛基于英伟达的软硬件应用体系而实现。
为实现成本-效益优化,AI 算力资源的各层级优化是重中之重。而大模型是基于 智算算力驱动之下诞生,在云场景下需要 GPU 算力服务结合高速网络、高性能文件 存储应对大规模分布式训练场景,从芯片层、服务器层到云架构层,服务商均需要 持续优化算力资源体系。
服务器硬件层 提升智算集群部署效率,需要系统厂商和芯片厂商在系统和芯片规划初期做好 全方位、多维度的协同,最大化减少定制开发内容。一般而言,全新的 AI 服务器系 统完整设计周期需要 14~18 个月,基于已有产品定制化改型,根据改动量大小开发 周期也要 6~12 个月不等,AI 加速卡从芯片流片到板卡回样则需要至少 6 个月。如 果系统厂商和芯片厂商没有做好设计协同,系统或芯片任何一方的改型将会带来巨 大的时间成本和巨额的资金投入,并严重影响产品上市进度。此外,面向 AIGC 的 计算系统交付模式不再是单一服务器,绝大多数情况最终部署的形式是包含计算、 存储、网络设备,软件、框架、模型组件,机柜、制冷、供电、液冷基础设施等在 内的一体化高集成度算力集群。为了实现全局最优的性能、能效或 TCO 指标,提高 系统适配和面向生成式 AI 的大模型算力系统的构建是一项复杂的系统工程,需要提 高适配部署效率、提高系统稳定性、提高系统可用性。
AI 服务器系统集成具备较强的综合性,需要基于行业客户实际需求,结合厂商 自身服务经验,通过先进的架构设计、硬件整合和方案设计、电源和散热等辅助设 备优化等综合解决方案能力来帮助客户打造高效、安全可靠、绿色的 AI 基础设施。
云架构层 当前算力资源的使用还处于粗放式的发展,目前许多计算中心的算力使用率低 于 30%,造成了大量的计算资源和能源成本的浪费。算力利用率体现了计算机系统 中正在使用的计算能力与该系统的总计算能力之间的比例,深化全栈技术体系应用, 构建一体化智能算力调度服务,可有效提升智能算力的利用率,大幅提高生产效率, 通过更少的硬件设施和能源成本,实现更高的经济效益。大量算力应用场景对算力 资源的某些方面的可用性存在特殊要求,不同在线或离线业务对算力服务的质量要 求千差万别。从供给侧来看,传统无差别算力服务提供模式无法为差异化应用需求 提供个性化的可靠保障。按同样的要求进行规划保障,容易造成算力资源大量浪费 或无法满足业务需求的两种极端情况。因此在提升算力利用率的同时,需要保障算 力服务的可用性,通过算力虚拟化、算力隔离、算力感知、混合部署和调度等技术, 来实现不同 SLA 要求的智算服务的可靠性保障。
容器与虚拟化是 GPU 算力云厂商面临的具体技术挑战之一,涉及如何有效地管 理、分配和虚拟化物理 GPU 硬件资源,以便多个用户能够同时访问这些资源,而不 会发生资源冲突或性能下降,实现多租户支持与隔离、优化虚拟机配置管理、共享 资源、高容错和故障处理、虚拟化性能开销优化等等。在实际的使用过程中,将完整的 GPU 卡分配给一个容器对于模型开发和模型推理等场景资源浪费严重,因此 GPU 共享技术可有效提升算力应用部署密度,提升 GPU 利用率。GPU 共享需要解 决容器间算力和显存精细隔离的问题,支持算力和显存的灵活配置,精细切分 GPU 资源、保证业务稳定同时大幅提升 GPU 利用率。
以业内广泛使用的 Kubernetes(通常简称为 K8s)架构为例。Kubernetes 是一种 用于容器编排和管理的开源容器编排工具,在 K8s 中,调度是将容器化应用程序部 署到集群中的节点上的过程,在应用中需要考虑资源约束和分配、容器间通信和网 络拓扑、故障容忍性、节点污点和容忍、自动弹性伸缩、多集群和混合云、性能优 化等因素。此外,还可对不同优先级的业务应用进行混合部署,如错峰业务组合、 计算型和内存型任务的组合等,从而运行更多的算力任务来提升利用率。
资源配置与算力调优 AI 智算网络是一张独立的高性能网络,云平台在实现对这张网络的运维和管理 之后的下一个目标就是提供产品化的多租户隔离能力,进而实现提升 GPU 和高性能 网络资源利用率的目的。类似于 IP 网络通过 VPC(Virtual Private Cloud)实现 IP 业 务的多租户隔离的原理,智算网络可通过 AI-VPC 实现智算 AI 类业务的多租户隔离 (百度云方案)。AI-VPC 中包含多个智算节点,在同 AI-VPC 中的智算节点可以互 相访问,而不同租户之间的智算节点处于隔离状态,不能互访。部分智算节点会同 时和 IP 网络和智算网络互联,此时智算节点会同时归属于 IP 网络的某个 VPC 和智 算网络的某个 AI-VPC。
使用算力服务的租户有不同的算力需求场景,如 AI 推理、AI 训练(小规模单 机单卡、中规模单机多卡、大规模的多机多卡)、模型评估和推理等。数据和算力(CPU、 GPU)作为 AI 的两大要素,针对这些场景,智算中心建设方需解决好如下问题:1) 租户间的数据和算力的安全隔离;2)租户内算力和数据之间通信效率,训练速度。 特别是在多机多卡和单机多卡的场景下,对训练时的热数据快速拉取和存放,提高 GPU 的利用率;3)数据和算力之间高速网络的可管、可控和可视化。
云服务场景下的算力调优是应对客户不同需求场景下,实现性能调度极致优化 的能力,涉及到软件、网络架构等多元层面的调试、优化,考验综合服务能力和技 术积累。厂商往往需要度客户提供针对性优化措施,比如分析改进应用程序计算负 载设计,充分利用 GPU 资源;深度挖掘性能瓶颈点,提供针对性的优化解决方案。
网络通信层 分布式训练本质上是通过多台节点构建出一个计算能力和显存能力超大的集群, 来应对大模型训练中算力墙和存储墙这两个主要挑战。而联接这个超级集群的高性 能网络直接决定了智算节点间的通信效率,进而影响整个智算集群的吞吐量和性能。 高性能网络需要具备低时延、大带宽、长期稳定性、大规模扩展性和可运维几个关 键能力。其中低时延分布式训练系统的整体算力并不是简单的随着智算节点的增加 而线性增长,而是存在加速比,且加速比小于 1。存在加速比的主要原因是在分布式 场景下,单次的计算时间包含了单卡的计算时间叠加卡间通信时间。因此,降低卡 间通信时间,是分布式训练中提升加速比的关键,需要重点考虑和设计。
降低多机多卡间端到端通信时延的关键技术是 RDMA 技术。RDMA 可以绕过 操作系统内核,让一台主机可以直接访问另外一台主机的内存。实现 RDMA 的方式 有 InfiniBand、RoCEv1、RoCEv2、iWARP 四种。其中 RoCEv1 技术当前已经被淘汰, iWARP 使用较少,当前 RDMA 技术主要采用的方案为 InfiniBand 和 RoCEv2 两种。 InfiniBand 的 AdaptiveRouting 基于逐包的动态路由,在超大规模组网的情况下保证 网络最优利用,因此 InfiniBand 网络在业界有较多的万卡规模超大 GPU 集群的案 例,包括百度智能云、微软云等。
此外,不同应用场景对算力的带宽和时延需求也有所区别。1)机器学习和模型 训练:对于需要大规模数据传输的应用,如大规模机器学习训练,需要更高的带宽 以加速数据加载和模型参数传输;2)图像和视频处理:图像和视频处理、渲染等应 用通常需要高带宽,以确保数据能够实时传输和处理。3)数据中心通信:数据中心 内部的通信,特别是在分布式系统中,需要更高带宽以支持节点之间的数据传输。 实时性应用:实时性应用,如在线游戏、视频会议等,对低时延有极高的要求,以 确保用户获得即时响应。4)模型推理:低时延可以保证快速的结果生成。5)工业 等远程控制:控制和操作应用需要低时延,以便及时响应用户的指令。
5、 公司布局:多赛道龙头加码 GPU 算力,蓝耘&并行彰显专精优势
国内外厂商布局加速了 AI 云市场增长。据 IDC 数据,2021 年国内专用于人工 智能的公有云服务市场规模达到 44.1 亿元人民币,占整体人工智能软件市场的 13.4%, 增速远超人工智能软件整体市场增速;2022 年在 AI 市场整体遇冷背景下,国内人 工智能公有云服务市场规模增长 80.6%至 79.7 亿元,计算机视觉占据约一半市场份 额。另一方面,IDC 也预计 AI 私有化部署仍是市场主流。
纵览目前国内市场算力租赁厂商,当下大量算力 GPU 资源仍集中于综合互联网 厂商、同时传统云计算、数据中心等领域的龙头企业也开始布局 GPU 算力。这部分 企业包括阿里、百度、腾讯、浪潮信息、云赛智联、优刻得、蓝耘科技、并行科技 等等;而一些新兴或转型跨界的第三方厂商也明确加码算力资源,如中贝通信、鸿 博股份、恒润股份、莲花健康等等。
不过,从算力资源整合能力、云技术储备与研发能力、算力服务器集成运营服 务能力等多方面因素考虑,我们认为几类厂商在算力租赁长期运营中具备一定竞争 优势:1)老牌云服务厂商,如综合互联网企业下属的阿里云、百度云、腾讯云等等, 以及专注超算云的专精企业并行科技、经营通用算力云的各大厂商等等。2)数据中 心龙头厂商:GPU 算力集群的构建通用依赖于大型数据中心的建设、布局和运营经 验,具备丰富经验的服务器集成商浪潮信息、蓝耘科技等均利用已有经验布局 GPU 算力,在资源整合上具备优势。3)电信运营商:电信、移动、联通几大电信巨头在 过去 IDC 浪潮中已经体现自身强大资源和资金优势带来的竞争力,当前也纷纷入场 GPU 算力赛道,通过资金实力、产业联系、地域资源储备等加快各地 GPU 智算中心 建设。
蓝耘科技:AI 算力综合服务商,加速 GPU 资源及产业布局 蓝耘科技专注于为企业级规模的 GPU 加速工作负载提供算力云服务,服务于高 校科研、生命科学、人工智能、自动驾驶、工业设计、智慧城市等领域。受益算力 建设需求,蓝耘科技业务快速增长,2022 年实现营收 3.94 亿元、归母净利润 0.43 亿元;2019-2022 年 3 年营收 CAGR 达到 29%,归母净利润 CAGR 达到 36%。2021 年公司业务开始结构性优化,着力发展高毛利率的 GPU 算力云业务,推动公司盈利 能力快速上升,毛利率 2023H1 已经上升至 28%,净利率达到 16%。
具体业务方面,公司的主营业务为 IT 系统集成业务、技术服务业务、GPU 算 力云服务业务,其中 GPU 算力云服务业务自 2021 年以来高速增长,近年来占比不 断上升,2023H1 实现收入 5215.56 万元,维持 117%高增长,收入占比达到 40%左 右,已成为一大核心业务,且毛利率达到 50%以上,高于公司传统的系统集成业务。 GPU 算力云服务主要是基于蓝耘 GPU 云 IAAS 基础设施,根据客户业务对 CPU 及 GPU 算力的需求,通过算力云平台为客户提供远程 CPU 或 GPU 多核并行算力,客 户按需购买算力核时或卡时预付费给蓝耘科技(即算力租赁模式);蓝耘算力云平台 可以向用户提供虚拟化的计算资源、存储资源、网络资源等,并能够根据用户的需 求动态分配。
并行科技:超算云行业第一梯队,2022 年 AI 云业务增长 198% 并行科技率先提出“互联网+HPC”概念,将云计算和互联网领域的最新技术引 入超算领域,建立其在超算公有云领域的“中国超算算力网络”,推动算力资源从“可 用”向“好用”发展;作为超算云领军者,公司近年又开拓基于 GPU 算力资源的智 算云业务,建设算力租赁服务平台。2022 年公司营收达 3.13 亿元(+42.11%),其中 核心业务通用超算云服务 2020-2022 年营收 CAGR 达 37%,超算云服务中,共建模 式贡献的营收比例达 70%。2023H1 营收增长超 50%,归母净利润亏损收窄。
公司基于超算行业多年深耕技术积累,开拓行业云及 AI“智算云”业务,其基 于 GPU 算力资源集群的 AI 云业务 2023H1 收入已达 2294 万元,占比持续上升。并 行智算云是并行科技针对人工智能和高性能计算场景的算力服务平台,面向企事业 单位、高校、科研院所在人工智能领域和高性能计算等方向的 GPU 算力需求,通过 云主机、高性能集群和裸金属三大产品体系支撑,基于高性能计算环境构建 GPU 算 力服务平台,以满足大规模预训练、微调、高并发推理和高精度科学计算中对计算、 存储、网络等环节的多样性需求。公司 GPU 资源基于自建+外接构建,引入多元化 算力资源,按需调度国内“算力资源池”,弥补了自建算力规模有限、难扩展的问题, 打造智算云服务平台、实现“算力网络”。
并行科技持续投入研发,基于作为超算行业龙头的长期技术积累,布局具备超 算特色的 GPU 算力云,针对大模型训练、AI 工业仿真等应用,打造成本、性能、 软件平台和服务等多元优势。根据弗若斯特沙利文,按 2021 年度收入规模排名,是 中国第一大独立超算服务商及中国第一大通用超算云服务商,具备大规模分布式超 算集群运行数据采集与分析技术、应用全生命周期监控与分析技术、多地域跨网络 跨集群的算力资源智能调度技术、集群内算力资源智能调度技术、超算业务化计算 支撑平台及其相关技术、应用软件 SaaS 化平台技术、应用优化技术等核心技术。
2021-2022 年研发投入均超过 4000 万元,截至 2023H1 已拥有 25 项发明专利, 2 项外观设计专利及 130 项已登记的计算机软件著作权;是中国计算机学会金质会 员、中科院计算机网络信息中心超级计算创新联盟理事单位。公司当前 GPU 资源的 服务能力可覆盖在手订单的需求量,预计能较好地服务当前在手订单用户。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
相关报告
北交所行业主题报告:AIGC驱动智算集群建设,算力租赁模式复现IDC高增路径.pdf
北交所研究报告:源头活水,北交所有望迎来新发展机遇.pdf
北交所策略专题报告:北证软服指数表现强于大盘,重视板块内高增低估标的.pdf
北交所2024年春季投资策略:保持耐心,左侧布局.pdf
解构北交所专题(六):北交所精选标的(下).pdf
北交所2024年度策略:厚积薄发,未来可期.pdf
AI人脸识别诈骗敲响金融安全警钟.pdf
AI搜索专题报告:怎么看Kimi的空间?.pdf
边缘AI行业研究报告:边缘AI硬件,引领硬件创新时代.pdf
人形机器人专题报告:AI驱动,未来已来.pdf
建筑行业2024年春季投资策略:新国九条催化央企市值国改,低空经济AI与铜矿有色弹性大.pdf