一、 计算机行业投资逻辑
全球大模型领域的竞争依然白热化。2022 年 11 月,由 OpenAI 开发的大模型聊天机器人 ChatGPT 火爆出圈。2023 年 3 月,OpenAI 发布 GPT-4,GPT-4 可以接受图片作为输入。相比 ChatGPT,GPT-4 在多模态处理能力、高端推理能力等方 面提升明显。2023 年 12 月,谷歌宣布推出其规模最大、功能最强的多模态大模型 Gemini,谷歌作为全球人工智能龙头之 一,无论在算力、算法还是商业化各个方面都积蓄较大优势,Gemini 系列在传统文本领域以及多模态领域能力均对标 GPT4,全球人工智能龙头在大模型领域的竞争依然白热化。
我国高度重视和支持 AIGC 产业的发展。今年以来,国家陆续出台多项鼓励和支持 AIGC 产业发展的政策,推动我国 AIGC 产业的发展。同时,我国大模型技术快速发展,在算力和算法领域均取得积极进展。在算力领域,海光信息、华为等国产高 端 AI 芯片厂商持续迭代新产品,我国国产 AI 芯片性能大幅提升,以浪潮信息为代表的我国 AI 服务器厂商竞争力全球领先。 在算法领域,BAT、科大讯飞在今年 9 月-10 月陆续推出了其大模型的最新版本,模型能力向 GPT-3.5 和 GPT-4 看齐。我国 国产大模型已经开始在教育、医疗、汽车、办公、工业、智能硬件等B 端和C 端应用场景持续落地。
在信创产业发展方面,我国信创产业的发展将按照 2+8+N 的落地体系逐步展开:党政是信创产业落地的起步领域,2013年 即开始在公文系统领域实行国产化替代,金融、电信等八大行业紧随其后,N 个行业的信创国产化替代也有望逐步启动。当 前,我国信创基础软硬件产品性能提升,已实现从可用到好用。我们判断,2024 年,党政信创将有望加速,金融、电信等八 大行业信创将陆续进入常态化。
展望 2024 年,在政策、市场、技术等多重因素的驱动下,我们看好AIGC 产业和信创产业的发展,看好两条投资主线:(一) 当前,全球范围内大模型领域的竞争依然白热化,这将持续拔升大模型的整体能力水平,提升大模型的多模态能力。大模型 需要大算力,大模型算法的迭代升级将为全球和中国 AI 算力市场的增长提供强劲动力。在美国对华半导体出口管制升级的 背景下,我国国产 AI 芯片产业链将加快成熟,相关 AI 芯片和服务器厂商将深度受益。另外,在应用端,我国国产大模型能 力持续升级,AIGC 产业未来发展前景广阔。(二)信创产业的发展。我国信创产业的发展将按照 2+8+N 的落地体系逐步展 开,我们判断,2024 年,党政信创将有望加速,金融、电信等八大行业信创将陆续进入常态化。华为拥有较为完整的信创 产品体系,将是我国信创产业发展的重要推动力。信创华为产业链值得重点关注。
二、 行业回顾与展望:行业行情震荡向上,看好 AIGC 和信创产业发展
2.1 行业上市公司 2023 年前三季度营收平稳增长,扣非归母净利润表现不佳
2023 年前三季度,行业上市公司营业总收入合计实现 8113.60 亿元,同比增长 1.66%;归母净利润合计实现 227.68亿元, 同比增长 1.87%;扣非归母净利润合计实现 128.91 亿元,同比下降 28.35%,扣非归母净利润表现不佳。分季度看,2023 年一、二、三季度,行业上市公司营收合计分别同比增长-1.18%、0.04%、5.65%;归母净利润合计分别同比增长 56.08%、 -11.45%、-0.04%;扣非归母净利润合计分别实现由盈转亏、同比下降 13.43%、同比下降 17.64%。展望四季度及 2024年, 我们认为,在中央财政 2023 年四季度增发 2023 年国债 1 万亿元等积极因素的推动下,行业上市公司的下游需求将加快增 长,行业上市公司的业绩将持续向好。
2.2 行业呈现明显震荡行情,整体仍处于上行态势
年初以来,受信创、数字中国、数据要素、AIGC 等主题的推动,计算机行业市场关注度较高,行业呈现明显震荡行情,整 体仍处于上行态势。1 月至 4 月初,在行业市盈率处于历史低位的背景下,受信创、数字中国、数据要素、AIGC 等主题的 推动,行业指数在 4 月初到达年初至今的高点。之后,随着 AIGC 合规风险的上升,叠加行业上市公司整体 2022年业绩和 2023 年一季度业绩表现不佳的影响,行业指数高位回落。5 月 25 日,全球AI 芯片龙头公司英伟达发布 2024 财年第一财季 财报,其对 2024 财年第二财季营收的乐观预期,加强了市场对于 AI 算力需求增长的确定性,提升了市场对于 AI 算力乃至 整个 AIGC 主题的信心与关注度。5 月 30-31 日,北京市、上海市、深圳市相继发布政策利好通用人工智能发展,彰显我国 对于 AIGC 发展的重视与支持。受益市场对 AIGC 信心的提振,行业行情开启反弹。6 月 20-21 日,行业指数高点回落。此 后,叠加半年报业绩表现不佳(主要是扣非归母净利润表现不佳),行业指数持续下降。10 月 24-25 日,在中央财政将在今 年四季度增发 2023 年国债 1 万亿元政策利好的推动下,叠加三季报业绩不佳的影响已逐步释放,行业行情再次开启反弹。
2.3 行业指数年累计涨幅跑赢沪深 300,在 31 个申万一级行业中排名靠前
截至到 2023 年 12 月 13 日,申万计算机指数上涨了 14.84%,跑赢沪深 300 指数 27.81 个百分点,在 31 个申万一级行业 中排名第 3 位,排名靠前。
2.4 行业估值处于历史相对较低水平,看好AIGC 产业和信创产业的发展
截至 12 月 13 日,计算机行业估值处于历史相对较低水平。根据我们的统计,2015 年以来,申万计算机行业指数历史市盈 率(TTM,剔除负值)中位数为 49.7 倍。计算机行业 12 月 13 日市盈率(TTM,剔除负值)为 48.1 倍,在历史市盈率中位数水平之下。展望 2024 年,在政策、市场、技术等多重因素的驱动下,我们看好 AIGC 产业和信创产业的发展。
三、 大模型需要大算力,国产 AI 芯片和服务器厂商迎来发展机遇
3.1 全球大模型领域的竞争依然白热化,国内政策加码助推 AIGC 产业发展
全球大模型领域的竞争依然白热化。2022 年 11 月,由 OpenAI 开发的大模型聊天机器人 ChatGPT 火爆出圈。2023 年 3 月,OpenAI 发布 GPT-4,GPT-4 可以接受图片作为输入。相比 ChatGPT,GPT-4 在多模态处理能力、高端推理能力等方 面提升明显。2023 年 12 月,谷歌宣布推出其规模最大、功能最强的多模态大模型 Gemini,谷歌作为全球人工智能龙头之 一,无论在算力、算法还是商业化各个方面都积蓄较大优势,Gemini 系列在传统文本领域以及多模态领域能力均对标 GPT4,全球人工智能龙头在大模型领域的竞争依然白热化。
我国高度重视和支持 AIGC 产业的发展。今年以来,国家陆续出台多项鼓励和支持 AIGC 产业发展的政策,为我国 AIGC产 业的发展护航。7 月 13 日,网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,为大模型的备案提供了政策依 据。自 8 月份以来,百度文心一言、商汤的商量 SenseChat、百川智能的百川大模型等通过了《生成式人工智能服务管理暂 行办法》备案,开始面向全社会开放服务。大模型备案工作正式启动。北京市、上海市、深圳市、成都市等陆续发布 AIGC 利好政策,推动我国 AIGC 产业发展。
3.2 大模型的实现需要十分强大的算力来支持训练过程和推理过程
大模型的实现需要十分强大的算力来支持训练过程和推理过程。根据 OpenAI 数据,训练GPT-3 175B 的模型,需要的算力 高达 3640 PF-days(即以 1PetaFLOP/s 的效率要跑 3640 天)。2018 年以来,大模型的参数量级已达到数千亿参数的量级 规模,对算力的需求将呈现指数级增长。
3.3 AI 芯片进入舞台中央,广泛应用于训练或推理
AI 芯片进入舞台中央,广泛应用于训练或推理。AI 芯片是指所有能够用于人工智能的芯片,主要包括 GPU、ASIC、FPGA 三大类,海内外大型厂商集中于 GPU 和 ASIC 架构。AI 芯片按应用场景可以分为训练芯片和推理芯片:训练芯片用于算法 模型开发、训练,利用标记的数据,通过该芯片“学习”出具备特定功能的模型;推理芯片用于应用层,利用训练出来的模 型加载数据,通过芯片计算“推理”出各种结论。按照部署的位置可以分为云端芯片和边缘端芯片:云端芯片部署在公有云、 私有云或者混合云上,不但可用于训练,也可用于推理,算力强劲;边缘端芯片主要应用于嵌入式、移动终端等领域,此类 芯片一般体积小、耗电低,性能要求也相对不高,一般只需具备一两种 AI 能力,用于推理。
GPU 大规模并行运算优势明显,是AI 芯片市场的首选。GPU 即图形处理器,主要分为传统 GPU 和 GPGPU,分别用于图 形渲染和通用计算,用于 AI 服务器的 GPU 一般指后者。GPU 中超过 80%部分为运算单元(ALU),擅长大规模并行运算, 主要应用于 PC、服务器、数据中心、自动驾驶等领域,在数据中心被广泛应用于 AI 的训练、推理高性能计算等场景,是国 内数据中心加速服务器市场的首选。据 IDC 统计,2023 年上半年, GPU 在我国 AI 服务器加速芯片市场以 92%的份额占 据主导地位。
GPU 市场目前仍由英伟达、AMD 等国外厂商主导,国内正处于发展起步阶段,在 AI 芯片市场的竞争力较弱,未来在大模 型技术发展的催化下,叠加美国限制向中国出口高端 GPU 芯片等因素,国产 GPU 芯片将迎来发展机遇。据 IDC 统计,2023年上半年,中国加速芯片的市场规模超过 50 万张。从技术角度看,GPU 卡占有 90%的市场份额;从品牌角度看,中国本土 AI 芯片品牌出货超过 5 万张,占比整个市场 10%左右的份额。
全球 GPU 市场竞争格局:英伟达独占鳌头,AMD 跟随其后。英伟达是全球 GPU 芯片市场的绝对龙头,AMD 紧随其后。 根据 JPR 数据,2022 年二季度,英伟达在全球独立 GPU 芯片市场占有率为 79%,AMD 以 20%的市占率跟随其后。英伟 达于今年 11 月份发布的新一代人工智能芯片 H200,相比 H100 内存速度和容量均实现大幅升级,在用于推理或生成问题答 案时,性能较 H100 提高 60%至 90%,预计将于 2024 年二季度上市。H200 将进一步提升大模型的训练与推理效率。近期, 美国对华半导体出口管制升级,英伟达拟推出 H20、L20 和 L2 三款芯片,以替代被美国限制出口的 H100。AMD 于 2023 年 6 月推出了针对 AI 的最新款处理器芯片 MI300A 和 MI300X,12 月 AMD 举行“Advancing AI”发布会表示 MI300A 已 进入量产阶段,而 Instinct MI300X 则已开始出货。海外算力能力不断提升,叠加美国对华半导体出口管制升级,将倒逼我 国国产 AI 芯片产业链加快成熟。
国内 GPU 产品发展势头良好,产品性能已可对标国际主流产品。国内目前部署 GPU 赛道的厂商主要有海光信息、景嘉微、 沐曦、壁仞科技、芯动科技等。当前,国内 GPU 产品发展势头良好,产品性能已可对标英伟达主流产品。以海光信息为例, 海光信息 DCU(Deep Computing Unit 深度计算器,是 GPGPU 通用图形处理的一种)产品具备强大的计算能力和高速并 行数据处理能力,产品性能已可对标国际上同类型高端产品的水平,已成功实现商业化应用。目前,海光信息第二代 DCU 产品-深算二号也已经发布并实现了在大数据处理、人工智能、商业计算等领域的商业化应用,具有全精度浮点数据和各种常 见整型数据计算能力。根据海光信息公司公告,公司在 2023 年三季度发布深算二号,性能相比于深算一号提升 100%以上。
ASIC 是一种定制芯片,可提供更高能效表现和计算效率。ASIC(专用芯片)是一种为特定目的、面向特定用户需求设计的 定制芯片,具备性能更强、体积小、功耗低、可靠性更高等优点。在大规模量产的情况下,还具备成本低的特点。ASIC 芯 片主要应用于深度学习加速,在推理侧,相较其他 AI 芯片在效率和速度方面具有明显优势。以谷歌为例,谷歌早在 2015年 就发布 TPU v1,与当时通用 CPU 和 GPU 的神经网络计算相比,TPU v1 带来了 15-30 倍的性能提升和 30-80 倍的能效提 升,以较低成本支持谷歌的多项服务,仅可用于推理;2017 年发布TPU v2,用于加速大量的机器学习和人工智能工作负载, 包括训练和推理;2018 年发布 TPU v3,算力和功率大幅增长,采用了当时最新的液冷技术;2020 年和 2021 年分别发布 TPU v4i 和 v4,应用 7nm 工艺,晶体管数大幅提升,算力提升,功耗下降;2023 年谷歌发布 TPU v5e 和 TPU v5p,12 月 最新发布的 TPU v5p 与 TPU v4 相比浮点运算性能进一步大幅提升,高带宽内存方面是 TPU v4 的近 3 倍。
国内 ASIC 产品发展势头良好,部分国产 AISC 芯片性能已经达到国际前列水平。我国的 AISC 芯片产品发展迅速,国内主 要 ASIC 芯片企业有寒武纪、澜起科技、黑芝麻、地平线、华为海思、阿里巴巴等。部分国产 AISC 技术已经达到国际前列 水平,如在半精度浮点算力方面,华为海思的昇腾 910 超过谷歌的 TPUv4 和 TPU v5e。华为推出的昇腾 910B 芯片,仍然 采用华为自研 Ascend 架构,其整体性能和能效均达到了国际领先水平,目前华为昇腾 910B 计算能力已经可以对标英伟达 A100。
寒武纪 ASIC 产品不断迭代,最新一代产品有望承接国内 AI 算力需求。寒武纪的第三代云端推训一体芯片思元 370,最大 算力高达 256TOPS(INT8),是第二代产品思元 270 算力的 2 倍。此外,与市场主流同尺寸芯片相比,思元 370系列加速 卡在实测性能和能效方面表现出一定优势。公司的思元370 芯片及加速卡与数家头部互联网企业完成适配工作,已经进入了 批量销售环节;与金融、运营商等众多行业领域中的头部公司实现了批量销售或达成合作意向。思元 590 是寒武纪最新一代 云端智能训练芯片,目前尚未正式发布。思元 590 采用 MLUarch05 全新架构,实测训练性能较在售旗舰产品有大幅提升, 有望承接国内逐渐升级的 AI 算力需求。
3.4 AI 服务器借助加速卡获取强大算力,市场需求快速增长
AI 服务器是指能够提供人工智能(AI)的数据服务器,具有强大的图形处理和高性能计算能力,既可以用来支持本地应用程 序和网页,也可以为云和本地服务器提供复杂的 AI 模型和服务,能支持多种常用的 AI 技术,如机器学习、自然语言处理、 计算机视觉、生物信息分析等。AI 服务器与普通服务器的区别主要在于计算架构的不同,AI 服务器通常根据应用场景的不 同,采用 CPU+GPU/ASIC/FPGA 或其他加速卡的异构式计算架构。
当前国内外 AI 服务器市场规模快速增长。根据 IDC 与浪潮信息发布的《2023-2024 年中国人工智能计算力发展评估报告》 预计,全球人工智能服务器市场规模将从 2022 年的 195 亿美元增长到 2026 年的 347 亿美元,4 年复合增长率约 15.5%。 2023 年中国人工智能服务器市场规模将达到 91 亿美元,同比增长 82.5%,2027 年将达到 134 亿美元,2022-2027 年5年 年复合增长率达 21.8%。
浪潮信息全球领跑,国产厂商在 AI 服务器领域大有可为。截至 2022 年,浪潮信息人工智能服务器市场份额长期居于全球 前列,连续 6 年保持中国第一。根据 IDC 最新发布的《2023 年第 3 季度全球服务器市场追踪报告》,浪潮信息服务器出货 量市场份额 10.3%,销售额市场份额 9.1%,均位居全球第二,销售额增速21.8%。 此外,新华三、宁畅、安擎等诸多国产厂商也正在加速推进人工智能基础设施产品的优化升级,并积极探索 AI 赋能传统产 业的应用落地方向。据IDC 统计,2023 年上半年,从厂商销售额角度看,浪潮、新华三、宁畅位居前三,占据了 70%以上 的市场份额;从服务器出货台数角度看,浪潮、坤前、宁畅位居前三名,占有近 60%的市场份额,国产厂商在 AI 服务器领 域大有可为。
互联网云巨头贡献 AI 服务器主要需求,资本投入力度有望维持增长。AI 服务器市场的下游主要是以大型云计算厂商为主。 TrendForce 统计数据显示,2022 年 AI 服务器采购量中,美国四家云厂商,微软、谷歌、Meta、AWS 的采购量位居前四, 合计占比约 66%。国内企业字节跳动、腾讯、阿里巴巴、百度紧随其后,在 AI 基础设施方面的建设步伐较为领先。IDC统计数据显示,2023 年上半年,互联网依然是我国加速服务器最大的采购行业,占整体加速服务器市场超过一半的份额,此 外金融、电信和政府行业均有超过一倍以上的增长。未来,随着AIGC、边缘计算、自动驾驶等新兴技术和应用的不断普及, 各大云厂商有望持续加大在 AI 相关基础设施方面的投入,持续为 AI 基础设施市场注入发展动力。
3.5 大模型的训练成本和推理成本高昂
大模型的训练成本和推理成本高昂。以 ChatGPT 为例,在训练端:根据澎湃新闻信息,2020 年,微软宣布与 OpenAI 合 作,建成了一台超级计算机,专门用来在 Azure 公有云上训练超大规模的人工智能模型。这台为 OpenAI 开发的超级计算机 拥有超过 28.5 万个 CPU 核心,拥有超过 1 万个 GPU(V100GPU 芯片)。以此规格,如果自建 IDC,以 A100GPU芯片替 代V100GPU芯片,依照A100和V100的性能换算,需要约3000个A100GPU芯片。根据英伟达网站信息,NVIDIADGXA100 服务器搭载 8 块 A100 芯片,估算需要 375 台 NVIDIADGXA100 服务器,每台 NVIDIADGXA100 服务器的价格为 19.9 万 美元,则自建 IDC 的训练服务器的算力成本为 7462.5 万美元。若在云端训练,据 Lambda Labs 首席科学官Chuanli 介绍, 拥有 1750 亿个参数的 GPT-3 单次训练成本达到 460 万美元。
在推理(用户访问)端:ChatGPT 推出仅两个月月活用户数已经破亿,2023 年 1 月,全球每天约有 1300 万独立访问者使 用 ChatGPT。以 ChatGPT 日活用户 2000 万估算,假设每天每用户提 10 个问题,则每天有 2 亿的访问量。若自建 IDC, 假设每个问题平均 20 个字,ChatGPT在 A100GPU 芯片上对每个字的响应时间是350 毫秒,则 2 亿的访问量需要 A100芯 片运行388889个芯片小时,即每天需要16204(388889/24)个A100芯片同时工作,需要2026(16204/8)台NVIDIADGXA100 服务器同时工作,则自建 IDC 的推理服务器的算力成本为 4.03 亿美元。若在云端推理,据《Fortune》杂志数据,每次用户 与 ChatGPT 互动,产生的算力云服务成本约 0.01 美元,则每天 2 亿的访问量,对应的云端成本为每天200 万美元。
大模型将为全球和中国AI 芯片和 AI 服务器市场的增长提供强劲动力。根据《2022 年北京人工智能产业发展白皮书》数据, 截至 2022 年 10 月,北京拥有人工智能核心企业 1048 家,占我国人工智能核心企业总量的 29%。以此计算,我国人工智 能核心企业总数约为 3614 家。初步来看,我国参与大模型的企业大致可以分为两类:即 C 端应用的企业和 B 端应用的企 业。在 C 端应用方面,假设其中有 20 家企业自研或与合作方共同研发通用大模型,自建 IDC 训练和推理面向庞大 C 端月 活的千亿量级参数的大模型,算力需求可参照 ChatGPT,即单一企业自建 IDC 推理和训练大模型的算力成本约为 4.78 (4.03+0.75)亿美元,按 20 家企业估算,算力需求为95.6 亿美元。
B 端应用方面,假设在 3614 家人工智能核心企业中,有 10%的企业即 361 家企业使用合作伙伴的大模型(包括开源大模 型),使用垂直行业数据进行进一步的训练得到垂类大模型,并将垂类大模型部署到客户的数据中心,则训练成本为垂类大 模型的训练成本,推理成本为客户运营垂类大模型的成本。假设垂类大模型的训练成本为ChatGPT 训练成本的1/10即 0.075 亿美元,则合计训练成本为 27.08 亿美元,假设每个垂类大模型厂商平均部署 100 个客户,每个客户运营大模型平均需要3 台 DGXA100 服务器,则每个客户平均推理成本为 59.7 万美元,合计推理成本为 215.52 亿美元,算力需求为 242.6 (27.08+215.52)亿美元。 以上,根据我们的初步估算,大模型的应用将为我国 AI 服务器市场带来 338.2 亿美元的市场需求。以 IDC 测算 2022 年我 国 AI 服务器市场规模占全球 AI 服务器市场规模的份额(26%)估算,则将为全球 AI 服务器市场带来约 1322.6 亿美元的市 场空间。市场空间巨大,相关芯片和服务器厂商将深度受益大模型的发展浪潮。
美国对华半导体出口管制升级,我国国产 AI 芯片产业链将加快成熟。当地时间 2023 年 10 月 17 日,美国商务部工业与安 全局(BIS)发布了对华半导体出口管制最终规则。最终规则在去年 10 月 7 日出台的临时规则基础上,进一步加严对人工智 能相关芯片半导体制造设备的对华出口限制,同时本次将壁仞科技、摩尔线程、光线云等 13 家中国实体增列入出口管制“实 体清单”。根据 10 月 24 日英伟达公告,英伟达 A100,A800、H100、H800、L40、L40S 和 RTX4090 等高端 GPU 芯片的 对华出口将受到出口管制最终规则的影响。根据 IDC 数据,2023 年上半年,中国加速芯片的市场规模超过 50 万张。中国 本土 AI 芯片品牌出货超过 5 万张,占据整个市场 10%左右的份额。受最终规则的影响,美国高端 AI 芯片的对华出口将受到 非常严格的限制。
根据 IT之家消息,英伟达现已开发出针对中国区的最新改良版 AI 芯片,包括 HGX H20、L20 PCIe 和 L2 PCIe,但与国 产芯片比如华为昇腾 910 等相比并不具备明显优势。在此背景下,我国国产 AI 芯片在国内市场的竞争力将进一步提高,在 国内市场的市占率有望加速提升。根据 IDC 数据,2023 年上半年,中国本土 AI 芯片品牌出货量国内市场份额约 10%,我国国产 AI 芯片市占率提升空间很大。我国国产 AI 芯片厂商将加快发展,产业链将加快成熟,相关 AI 芯片和服务器厂商将 深度受益。
四、 我国国产大模型能力持续升级,AIGC 产业未来应用潜力巨大
4.1 大模型迭代进入快速发展阶段,GPT 大模型成为关注焦点
大模型算法的迭代可以大致分为萌芽阶段、探索阶段和快速发展阶段三个阶段。第一阶段以 CNN 为代表的传统神经网络模 型为主。1980 年,卷积神经网络的雏形 CNN 诞生;1998 年,以卷积神经网络为架构的 LeNet-5 深度学习模型问世,为大 模型的发展奠定基础。2006 年-2019 年,是以Transformer 为代表的卷积神经网络模型阶段。2014 年,对抗式生成网络GAN 诞生,开启生成模型研究新阶段。2017 年,Google 开创性地提出了 Transformer 架构,随后,OpenAI 和 Google 分别发布 了 GPT-1 与 BERT大模型,大模型的性能显著提升。2020 年以后,卷积神经网络模型的参数量激增,多种通用大模型相继 问世,其中,OpenAI 在 2023 年 3 月发布的预训练大模型 GPT-4 成为目前关注焦点。
Transformer 引入注意力机制,突破 RNN、CNN 处理长序列的局限。Transformer 模型是由 Google 团队的 Ashish Vaswani 等人发表论文《Attention Is All You Need》提出的模型概念,是当前大模型领域主流的算法架构基础,其上形成了 BERT和 GPT(Generative Pre-Trained Transformer)两条主要的技术路线,其中 BERT的代表性落地项目是谷歌的 AlphaGo。在 GPT3.0 发布后,GPT逐渐成为大模型的主流路线。当前,国内包含百度文心一言、阿里通义千问等在内的几乎所有参数规 模超千亿的大型语言模型均采用 GPT模式。 Transformer 模型是一个深度学习模型,其标志性特征是采用了 self-attention 机制,可为输入数据的各部分分配不同权重, 核心是从关注全部到关注重点,从而节省资源,快速获得最有效的信息。self-attention 机制的引入突破了 RNN 处理长序列 的输入,以及 CNN 解决远距离特征依赖问题的局限,使得通过提升参数量来提升预训练大模型的性能成为了可能。
国外大模型起步较早,全球人工智能企业领先布局,国内 2023 年迎来爆发式增长。2018 年开始,谷歌、OpenAI、英伟达、 Meta 和微软等大型科技企业纷纷推出自研大模型技术,预训练大模型逐渐成为自然语言处理领域的主流研究。2022 年 11 月 ChatGPT 发布仅两个月的时间,线上活跃用户规模超过1 亿人,生成式大模型市场广泛关注,尤其是微软和谷歌两家人 工智能领军企业迅速意识到 ChatGPT 对于未来商业的战略意义,开始围绕公司现有业务,在生成式大模型领域加速布局。 2023 年受 ChatGPT 驱动,大模型发展迈向新阶段,国产大模型一时间也呈现出爆发式增长态势,据赛迪顾问统计,2023 年 1-7 月国内共计 64 个大模型发布,截至2023 年 7 月,中国累计已经有 130 个大模型问世。
目前,海外大模型进展来看,ChatGPT 已迭代至 GPT-4 Turbo 版本,Google 也于 12 月推出了其最强的 Gemini 多模态 大模型。当地时间 11 月 6 日,OpenAI 举办首届开发者大会“OpenAI DevDay”,Sam Alitman 在会上推出 GPT-4 Turbo,将上下文长度提升至 128K,相当于 300 多页文本内容,为此前 GPT-4 扩容版本(32K)的 4 倍。GPT-4 Turbo 将模型内部 知识库更新至 2023 年 4 月,此前 GPT-4 知识库仅停留在 2021 年 9 月。当地时间 12 月 6 日,Google 宣布推出其规模最 大、功能最强的多模态大模型 Gemini,支持 32k 的上下文长度,1.0 家族涵盖 Ultra、Pro、Nano 三类模型,Gemini Ultra 在 32 个广泛使用的文本领域学术基准中有 30 项超过 GPT-4,在图像、视频、音频多项基准测试中同样实现超越 GPT-4V。
国内大模型厂商情况来看,BAT、科大讯飞在今年 9 月-10 月陆续推出了其大模型的最新版本,模型能力向 GPT-3.5 和 GPT4 看齐。9 月 7 日,在 2023 腾讯全球数字生态大会上,腾讯混元大模型正式亮相,并宣布通过腾讯云对外开放,模型中文 能力超过 GPT3.5,英文能力目前不及 GPT3.5。10 月 17 日,百度世界大会2023 在北京召开,李彦宏正式发布文心大模型 4.0,称 4.0 能力与 GPT4 相比毫不逊色。10 月 24 日,第六届世界声博会暨 2023 科大讯飞全球 1024 开发者节召开,讯飞 星火 V3.0 重磅发布,根据公司介绍,讯飞星火 V3.0 全面对标 GPT3.5,中文能力客观评测超越 ChatGPT,英文能力对标 ChatGPT 48 项任务结果相当。10 月 31 日,阿里云栖大会上阿里云正式发布千亿级参数大模型通义千问 2.0,称在 MMLU、 AGIEval、C-Eval 等 10 大主流测评集上综合性能超过 GPT3.5。
4.2 大模型赋能千行百业,AIGC 未来发展前景广阔
按模态划分,大模型可分为自然语言处理(NLP)大模型,视觉(CV)大模型、多模态大模型等。按应用场景划分,大模型 可分为通用大模型和行业大模型。通用大模型是指可在不进行微调或少量微调的情况下完成多场景任务的大模型,具有强大 的泛化能力,ChatGPT、华为盘古大模型以及最新发布的 Gemini 都是通用大模型。行业大模型则利用行业知识对大模型进 行微调,以满足在金融、汽车、传媒等不同领域的需求,如金融领域的BloombergGPT、汽车领域的毫末 DriveGPT、法律 领域的 LawGPT_zh 等。
当前,人工智能在我国各行业已经得到广泛应用。根据 IDC 数据,2022 年,人工智能在我国互联网、金融、政府、电信、 制造等行业的渗透率分别为 83%、62%、52%、51%、45%。随着国产大模型的逐步成熟,我国大模型产品面向我国庞大的 互联网 C 端用户群和丰富的行业应用场景,将与产品和应用场景深度融合,赋能我国数字经济的发展。参考我国数字经济的 巨大体量,我国 AIGC 产业未来发展前景广阔。
AIGC+办公:微软 Copilot 将 AIGC 与办公软件结合,助力实现降本增效 微软推出 Microsoft 365 Copilot 把 ChatGPT 引入 Office 办公软件,将 AIGC 与办公软件结合。AI 办公软件将大型语言模型 的力量与业务数据和办公软件应用相结合,实现了发挥创造力、释放生产力、提高办公技能和改变生产方式等目的。2023年, 继 Microsoft 365 Copilot 于 11 月 1 日开启海外商用之后,12 月 6 日微软宣布 Copilot 将获得一些增强功能,从而生成更强 大的文本和图像,包括获得对 GPT-4 Turbo 的支持、更新 DALL-E 3 模型、增添新的代码解释器功能和必应内部的深度搜 索功能。我们认为 Copilot 有望带动各行业 AI 助手市场的发展,产生广泛的行业应用。
AIGC+传媒:文生视频工具 Pika 出圈,多模态驱动传媒行业效能提升 AIGC 虽然处于发展早期,但成长曲线十分陡峭,随着越来越多由 AI 驱动的生产力工具被整合到工作流中,各产业生态势必 将被重塑。人工智能作为新的传媒行业发展引擎,未来将全面激活行业各业务,助推传媒行业业务发展进入新纪元。从应用 方向上看,当前 AIGC 赋能工具主要集中在文本、代码、图像、音频等几大领域,与传媒行业密切相关,AIGC 将成为未来 传媒行业发展的重要驱动力。2023 年 11 月,AI 初创公司 Pika labs 发布全新的文生视频产品 Pika 1.0,用户只需要输入一 句话就可以生成想要的各种风格的视频,并通过简单的描述更改视频中的形象和风格,有望加速推动多模态 AIGC 应用在传 媒行业的落地。
AIGC+医药:赋能研诊疗全流程,提升健康管理和辅助决策效率 在医疗领域,从医学科研、药物研发到智慧诊疗的各阶段、医疗设备运维、医院管理等方面均有大模型产品涌现,参与主体 主要是由高校及科研机构展开探索、企业推进商业化落地。2023 年 7 月 31 日,谷歌发布了首个全科医疗大模型——MedPaLM M 多模态生成模型,此外,水木分子、华为、百度、科大讯飞等科研机构或企业陆续发布了医疗大模型。
AIGC+金融:金融科技深化发展,大模型可用于风险管理、投资决策等业务 金融机构数字化转型需求的不断提升,以及 AIGC 技术对金融领域相关信息化产品的强大赋能,使得 AIGC+金融领域的应 用发展十分迅速,BloombergGPT 的发布让人们看到未来金融行业 AIGC 应用的强大。目前在金融领域,大模型可以用于股 票预测、信用评估、风险管理等业务,也可用于建设数字人系统、短视频生成平台、自动研报生成系统等。 同花顺:公司具有 AI 虚拟人、同花顺 AI 开放平台 i 问财等一系列人工智能产品,为金融行业持续提供数字虚拟人、智能客 服机器人、智能质检机器人等 40 余项 AI 产品服务。
4.3 汽车驶向智能化时代,大模型提升自动驾驶泛化能力
大模型的引入加速自动驾驶算法向端到端的演进,助力高级别自动驾驶功能突破。自动驾驶算法系统分为端到端自动驾驶和 模块化自动驾驶两类。模块化自动驾驶系统分为为感知、决策和执行三层,其中 AI 在感知层和决策层发挥重要所用。端到 端自动驾驶是指车辆将传感器采集到的信息,直接送入到一个统一的深度学习神经网络,神经网络经过处理之后直接输出自 动驾驶汽车的驾驶命令。随着自动驾驶逐渐由 L2 迈入 L3 阶段,基于规则的感知算法和基于高精地图的定位方案从技术或 商业化角度,都或已成为了高级别自动驾驶功能发展的瓶颈,端到端自动驾驶算法将成为实现高级别自动驾驶功能的突破口。 大模型强大的建模能力可以实现从原始传感器输入直接到驾驶决策输出,大模型的引入有利于自动驾驶技术从模块化阶段向 端到端进化。
特斯拉自研算法,由BEV+Transformer 到占用网络,引领自动驾驶算法迭代。特斯拉作为全球的自动驾驶技术指引,其自 动驾驶感知算法的发展路径就是自动驾驶感知算法迭代历程的缩影。2014 年至 2016 年期间,特斯拉自动驾驶系统采用了 Mobileye 的视觉算法技术。2016 年,在告别了 Mobileye 后,特斯拉开始自研算法,采用鸟瞰视角(BEV)来建模自动驾驶 系统的环境。2020 年之后,特斯拉引入 BEV+Transformer 取代传统的 2D+CNN 算法,并采用特征级融合取代后融合,自 动标注取代人工标注,自动驾驶开始进入大模型时代。2022 年,特斯拉自动驾驶算法中引入时序网络,并将BEV 升级为占 用网络(Occupancy Network)。2023 年 8 月,端到端AI 自动驾驶系统 FSD Beta V12 首次公开亮相,完全依靠车载摄像头 和神经网络来识别道路和交通情况,并做出相应的决策。
BEV+Transformer 助力城市 NOA 脱离高精度地图,是目前自动驾驶主流方案。2022 年之前,国内主机厂实现城市NOA (导航辅助驾驶,Navigate on Autopilot)落地主要基于高精度地图+单车感知的方案,但在实施过程中发现高精度地图的弊 端与限制逐渐暴露:1)无法实时更新且制作成本较高。高精地图内容极为精细,故更新速度缓慢,但自动驾驶需要地图至 少达到日更以上水平,带来了极大的适配以及成本问题。2)政策制约。目前,高精地图包含内容过于详细,出于国家安全 角度考量,其采集制作与应用限制颇多。 自动驾驶感知算法向 BEV+Transformer 架构升级,助力城市 NOA 脱离高精度地图。特斯拉推出的基于 BEV+Transformer 的自动驾驶感知路线,可将 2D 图像转化为 BEV 鸟瞰图视角下的3D 图像,并基于更庞大、更复杂、参数更多的感知算法模 块,利用 Transformer 的注意力机制,将各个传感器统一到同一个连续的四维(三维空间+一维时间)时空中。 BEV+Transformer 架构逐渐成为自动驾驶主流方案。
BEV 感知模型使得自动驾驶在极端天气等特定场景的安全性显著提升。BEV 感知模型的应用有效提升了自动驾驶在极端天 气等特定场景下的安全性。在后融合模型中,当遇到雨雪等极端天气条件时,摄像头采集到的数据/视频流的清晰度会大幅下 降,很难满足摄像头判断合格的标准,从而导致传递给后端进行规划控制的结果大幅降低。与后融合模型不同,从不同视角 的摄像头采集到的图片在转换为 BEV 视角的过程中实现了特征级的融合,感知模型对数据的利用率明显提高。
大模型提升自动驾驶泛化能力,助力城市 NOA 加速落地。高速领航辅助驾驶(高速 NOA)在特定路段下驾驶场景较为封 闭,交通环境的标准化程度高,且交通参与者较为单一,不涉及到行人,驾驶状态的可预测性更强,因此高速 NOA 成为了 自动驾驶率先落地的场景。而城市领航辅助驾驶(城市 NOA)在路况、交通参与者、场景异质性方面的复杂性均对自动驾驶 模型的泛化能力提出了挑战。自动驾驶场景逐渐由高速拓展到城市。佐思汽研统计,2023 年 1-9 月,国内乘用车高速NOA 渗透率为 6.7%,同比增加 2.5 个百分点 ;城市 NOA 渗透率为 4.8%,同比增加2.0 个百分点。预计全年高速 NOA 渗透率 将接近 10%,城市 NOA 超过6%。AI 大模型的应用不仅通过提升了自动驾驶算法的泛化能力,同时有效降低了自动驾驶传 感器硬件成本,有望加速城市 NOA 的商业化进程。
国内自动驾驶认知决策 AI 大模型开始落地,助力实现端到端方案。在自动驾驶认知决策层面,国内已有相关 AI 大模型落 地。2023 年 4 月,毫末智行发布了业内首个自动驾驶生成式大模型 DriveGPT,中文名“雪湖·海若”。DriveGPT 通过引 入驾驶数据建立 RLHF(人类反馈强化学习)技术,对自动驾驶认知决策模型进行持续优化,最终目标是实现端到端自动驾 驶参数规模达到 1200 亿,预训练阶段引入 4000 万公里量产车驾驶数据,RLHF 阶段引入 5 万段人工精选的困难场景接 管 Clips。与 ChatGPT 使用自然语言进行输入与输出不同,DriveGPT 输入是感知融合后的文本序列,输出是自动驾驶场 景文本序列,即将自动驾驶场景 Token 化,形成“Drive Language”,最终完成自车的决策规控、障碍物预测以及决策逻辑 链的输出等任务。10 月,毫末智行发布了 3 款第二代智能辅助驾驶产品,摆脱对高精地图的依赖,同时成本高昂的激光雷 达也成为了非必须可选项,3 款产品分别为:HP170、HP370、HP570,市场价格分别为:3000 元、5000 元、8000元,定 价相较此前市场上万元级别的智能驾驶软硬件价格而言具备优势,有望加速高级别自动驾驶大规模商用落地。
智能座舱已经进入规模化普及的新周期。根据盖世汽车研究院数据,2023 年上半年,中控大屏、车载语音交互和车联网的 渗透率均超过 70%。自 2023 年以来,大模型上车的速度明显加快,智能座舱方面,车载语音助手成为 AI 大模型落地的最 重要途径。多模态大模型的应用可以通过提升车载助手多模态理解能力、感知能力等,重塑人车交互方式。 AI 大模型+座舱应用频繁落地。2023 年 6 月,理想旗下语音助手“理想同学”加入了其自研的认知MindGPT,可以支持声 纹识别、内容识别、AI 绘画、AI 计算等功能。10 月份,随着智己 LS6 上市,其自研的 GPT大模型也正式上线。而蔚来也 已申请 NIOGPT、NOMIGPT等商标。此外,科大讯飞的星火大模型、百度的文心一言大模型、商汤的日日新大模型均已在 智能座舱场景实现应用落地。
4.4 大模型为人形机器人注入大脑,打开通用机器人可实现性
全球机器人市场规模持续扩大,中国市场增速领先。机器人指能够执行各种任务的自动化设备或系统,具备感知、决策和执 行能力。受益于技术的不断进步、成本的下降以及对自动化解决方案的需求增加,全球机器人市场规模持续扩大,根据国际 机器人联合会(IFR,International Federation of Robotics),2022 年全球机器人市场规模 513 亿美元,同比增长 19.6%, 2017-2022 年 CAGR 为 14.0%。中国机器人市场增速保持领先,2022 年中国机器人市场规模 174 亿美元,同比增长 22.5%, 2017-2022 年 CAGR 为 22.1%,增速领先于全球。
细分市场来看,IFR 将机器人分为工业机器人和服务机器人。1)工业机器人:主要用于工业生产和制造领域,通常具有高 度精准的动作控制和重复性能力,用于自动化生产线上的各种任务,如装配、焊接、搬运、喷涂等。根据 IFR,2021年全球 工业机器人市场规模约 175 亿美元。值得注意的是,我国是全球最大的工业机器人市场,2022 年装机量达到 29.0万台,占 据了全球市场的 52%。2)服务机器人:设计用于为人类提供各种服务,可以在家庭、医疗、教育、零售、餐饮等领域执行 特定的任务,如家庭清洁机器人、医疗辅助机器人、教育机器人、导购机器人等,IFR 统计 2021 年全球服务机器人市场规 模约 172 亿美元。
机器人智能化迭代升级,人形机器人具备“拟人”优势。机器人的发展历史可以追溯到 20 世纪40 年代,其智能化程度经历 了不断的迭代升级,从最初的工业机器人到现代的服务机器人、协作机器人等等。如今人形机器人是机器人领域的重要分支, 之所以能够成为当前研究领域的热点,是因为其“拟人”优势所赋予机器人功能的多样性与普适性,从而带来应用场景与领 域的广泛性。人形机器人近似于人的机体和动能设计,意味着能够像人一样行动,完成人在制造业、农业、服务业中从事的 各种重复、繁琐工作,更易成为人类社会活动的重要参与者。
特斯拉高调入局,掀起人形机器人产业热潮。2022 年 9 月 30 日,特斯拉AI Day 上人形机器人“Optimus”(擎天柱)首次 亮相,海内外市场为之振奋。2023 年 5 月特斯拉股东会上视频展示了迭代后的 Optimus,在电机扭矩和力度控制等方面更 精确,预计量产后单价有望低于 20000 美元。2023 年 9 月,特斯拉机器人 X官方账号发布视频,Optimus 已可以自主对物 品分类,同时能够自动校准它的手臂和腿,仅通过视觉和关节位置编码器,即可定位其肢体位置。12 月 13 日,马斯克在社 交平台 X展示了将于 12 月发布的 Optimus 第二代机器人(Gen 2)步行速度提升 30%,平衡感和身体控制能力有所改善。根 据特斯拉透露的未来方向,Optimus 的应用场景未来可能会涉及工业生产,也就是由人形机器人全程接管汽车生产领域,实 现真正的无人生产。
人形机器人产业百花齐放,但尚未形成大规模商业化应用。人形机器人代表企业包括 Boston Dynamics、优必选、Agility Robotics 等公司,但当前绝大多数人形机器人都未实现商业化落地。2022 年特斯拉高调入局掀起产业热潮,我们看到海内 外企业纷纷加紧布局人形机器人赛道。从国内企业来看,2022 年 8 月小米发布了人形机器人 CyberOne,2023 年以来国内 厂商人形机器人产品发布节奏进一步加快,7 月傅利叶发布人形机器人 GR-1,8 月宇树科技发布其首款人形机器人H1,达 闼紧随其后发布了最新版旗舰人形服务机器人 XR-4,10 月小鹏首次展示了自研的人形机器人 PX5,在多家科技企业大力投 入的背景下,我们认为我国人形机器人商业化进程有望加速。
大模型为人形机器人注入大脑,打开通用机器人可实现性。我们认为通用性受限是掣肘人形机器人商业化落地的原因,过去 人形机器人动作普遍源自提前创建的行为库,限制了其在更泛化应用场景上的推广。人形机器人需要具备更强大的智能化和 自主决策能力,而大模型具有庞大的先验知识库与强大的通识理解能力,可以满足人形机器人对于通用性的场景和技能的要 求,实现复杂的运动控制、多模态感知和决策、自主学习和优化等。当人形机器人的使用者从工程师变成了一般用户,使用 门槛降低将助力产业走向更大规模的爆发。
特斯拉 Optimus:移植智驾系统 FSD 端到端架构,实现高运动控制水平。最新特斯拉 Optimus 自主对物体进行分类的能力 来自于端到端训练的神经网络,与特斯拉自动驾驶 FSD 的逻辑架构较为接近,视频作为输入,控制作为输出,并由此来控 制各个部件和关节的移动。特斯拉通过打通自动驾驶和机器人的底层模型,仅靠视觉和编码器就能够完成非常高的运动控制 水平,同时特斯拉 Dojo 平台也有望进一步增强其人形机器人的AI 能力。
谷歌:机器人大模型起源于 LLM,保持高速迭代。谷歌机器人大模型由大语言模型演化而来,逐步由基础认知理解向底层 操作控制发展,迭代速度极快。从 2022 年 4 月推出 SayCan 模型,初次引入大模型用于做任务理解和拆分,5 月推出 Gato 输出多模态感知能力,12 月推出 RT-1 使用传统神经网络的方法来执行 SayCan 任务,再到 2023 年 3 月推出 PaLM-E 结合 自主可靠决策和多模态感知两种能力,6 月推出能够自主生成新数据集的 RoboCat,7 月 RT-2 将 VLM 大模型与 RT-1的机 器人执行数据集共同微调训练,10 月谷歌创建 Open X数据集,融合目前最全的机器人场景与任务数据。
小米 CyberOne:家用机器人定位,AI 赋能情绪感知。2022 年 8 月,小米首款全尺寸人形仿生机器人 CyberOne 亮相,身 高 177cm,体重 52kg,全身 21 个自由度,13 个关节位,运动时速 3.6km/h。人形机器人最主要的部分关节,以及其中的 电机,最大模组峰值扭矩为 300N·m。雷军提到,CyberOne 以人工智能为内核,标准人形为载体,是小米对未来科技生 态的一次探索,也是小米多元融合技术体系的新成果。CyberOne 在视觉和感知方面有较强的能力,不仅采用了弯曲 OLED 屏幕,还增加了双麦克风系统和 Mi Sense 空间视觉模组,以及 AI 交互系统,能够识别 85 种语义环境、45 种人类语义情 绪。CyberOne 的最终定位是在娱乐陪伴、教育益智、管家、消费服务等服务机器人领域。
傅利叶 GR-1:支持大模型二次开发,商业化落地进度领先。傅利叶智能通用人形机器人 GR-1 身高 1.65 米,体重约55公 斤,拥有高度仿生的躯干构型和拟人化的运动控制,搭载自主研发的 FSA 一体化执行器,全身总关节执行器数量达 44 个, 最大关节峰值扭矩达 230N·m,从芯片到零部件其国产化率已超过 90%。GR-1 可在不稳定、无辅助、强干扰环境下,快速行走(最大速度超过 5km/h)、后退行走、站走切换、原地转弯、扭腰、转头、跑步、避障、越障、上下坡等多种运动能力, 根据计划 GR-1 会率先在康复陪护等民生场景中应用。9 月 26 日,傅利叶智能在公众号宣布 GR-1 开启对外预售,11 月 3 日有关负责人表示目前已开始陆续交付,商业化落地进度全面领先于同业。 海外人形机器人产业整体发展领先,当前以特斯拉为代表的汽车企业、以波士顿动力为代表的机器人企业、以谷歌为代表的 人工智能企业均在发力人形机器人赛道。国内以小米、傅利叶等为代表的企业也正在切入,展望未来,伴随我国人形机器人 厂商的积极布局和国产大模型能力的提升,我国人形机器人产业有望借助大模型实现通用性能提升,加快大规模商业化落地 进程。
五、 信创工程市场空间巨大,华为将成为信创产业发展重要推动力
5.1 党政信创先行,金融、电信等八大行业紧随其后
党政信创先行,行业信创大幕开启。我国信创产业的发展将按照 2+8+N 的落地体系逐步展开:党政是信创产业落地的起步 领域,2013 年即开始在公文系统领域实行国产化替代,金融、电信等八大行业紧随其后,N 个行业的信创国产化替代也有 望逐步启动。根据零壹智库数据,截止 2021 年 12 月,党政、金融的落地实践率分别为 57.0%和 29.6%,信创产业正从党 政领域快速向其他行业延伸拓展。
在党政信创领域,根据龙芯中科、中国长城、太极股份、中国软件等信创核心企业 2023 年半年报和三季报的财报信息,我 们判断,2023 年党政信创市场阶段调整。考虑到我国信创产业的发展进程,我们判断,2024 年,党政信创有望加速。在行 业信创领域,以金融信创和电信信创来看,2023 年,信创订单在金融、电信等行业持续落地。我们判断,2024 年,金融、 电信等八大行业信创将陆续进入常态化发展阶段。信创产业的发展,将为我国信创相关厂商带来良好的市场机遇。
金融信创招标进程加速,进入应用落地爆发期。金融业作为行业信创的试验田,其国产替代步伐逐渐从办公系统延伸至核心 业务软件系统,已经进入规模化量产落地阶段。根据艾瑞咨询数据,2022 年试点单位已经扩充至 5000 家,并逐步向中小金 融机构渗透。2023 年以来金融信创招标进度加快。根据 C114 通信网数据,近期,中信银行 65 亿信创大单落地,含包括服 务器在内的 9 类设备。国内金融IT相关企业也在信创领域持续取得突破。根据顶点软件公司公告,顶点软件新交易体系A5 信创版已在东吴证券、东海证券全面上线,华宝证券、华鑫证券等 3 家券商也在切换过程中。根据恒生电子公司公告,恒生 电子截至 2023 年 6 月末,33 个主产品信创项目竣工覆盖率达到29%,信创合同覆盖率提升到 58%。上半年还通过了数据 库国产化认证工作,信创生态建设持续推进。金融行业对自主可控能力、技术供应链的韧性等安全稳定性的要求逐渐攀升, 有望释放巨大存量替换需求。
电信信创硬件采购加速,AI 算力布局进一步打开信创市场空间。电信运营商作为国家通信安全的保障,早在 2019年已开始 有信创采购需求并不断加码投入。当前我国电信行业的信创建设仍以基础硬件为主,尤其信创服务器已实现规模化应用。 2022 年 10 月,移动公示 2021-2022 年 PC 服务器集中采购第二批次(标包7-9)结果,综合此前标包1-6 与第一批次及补 采,中国移动PC服务器集采中,海光芯片服务器59982台,鲲鹏芯片服务器58901台,整体信创芯片服务器占比达41.43%。 2023 年 2 月,联通公示《2022 年通用服务器集中采购项目》,合计采购服务器 55352 台,共计 46 亿元,信创 CPU服务器 金额占比 41.4%。海光芯片服务器10300 台,鲲鹏芯片服务器 12108 台。
5.2 我国信创基础软硬件产品性能已实现从可用到好用,信创工程市场空间巨大
当前,我国信创基础软硬件产品性能提升,已实现从可用到好用。以芯片为例,龙芯中科和海光信息等公司均已发布新一代 CPU 芯片,芯片性能大幅提升,性能可对标国际主流桌面/服务器 CPU 芯片。 龙芯中科:坚持架构自研,具备较强生态支持能力。龙芯中科是国产 CPU 的引领者,其产品矩阵包括:龙芯 1 号、2 号、 3 号系列处理器及配套桥片。龙芯 1 号为嵌入式专用处理器,面向物联网终端、仪器设备、数据采集等工控领域;龙芯2号 为单芯片 SOC,面向网络设备、行业终端、智能制造等工控领域;龙芯 3 号为高性能通用处理器,面向桌面和服务器等信 息化领域,配套桥片主要与龙芯 3 号系列处理器配套使用。
龙芯中科秉承独立自主和开放合作的运营模式,从指令集/IP 核授权、到芯片级/主板级开发以及系统内核应用等方面对生态 伙伴进行全方位的开放支持。目前,龙芯中科的信息化合作伙伴上千家,可以提供从端到云的完整解决方案,相关软硬件开 发人员数万人,已经形成较强的产业链与生态支撑能力。11 月 28 日,在龙芯中科 2023 新品发布会上,龙芯中科发布新一 代国产桌面 CPU 龙芯 3A6000,龙芯 3A6000 处理器总体性能与 Intel 公司 2020 年上市的第 10 代酷睿四核处理器(Intel酷 睿 i3)相当。在发布会现场,基于龙芯 3A6000 处理器的众多整机产品发布。其中包括同方计算机、联想开天、超越科技、 升腾资讯、攀升、国光信息、北方自控、视睿、海尔雷神、宝德网安、百信、黄河信产、大众电子、方正数码等 50 余家品 牌企业,共同发布基于龙芯 3A6000 的桌面计算机、笔记本、板卡、存储产品、网络安全设备、工业控制计算机等产品。另 外,在本次发布会上,龙芯中科还推出了打印机主控芯片龙芯 2P0500。
海光信息:兼容 X86 生态,对标国际主流高端处理器。公司高端处理器分为 CPU 系列和DPU 系列,其中 CPU 为通用处理 器,包括海光 3000、海光 5000、海光 7000 系列产品,内置多个处理器核心,集成通用高性能外设接口,适用于数据处理 和事务处理类通用型应用。海光信息处理器产品兼容 X86 指令集及“类 CUDA”环境,软硬件生态丰富,能够很好的支持国 内外主流的操作系统、云计算、数据库、大数据、人工智能、商用计算软件等,生态兼容性良好。 公司产品性能基本达到国际上同类型主流高端服务器处理器的水平,在国内处于相对领先地位。对比 Intel 在 2020 年(与海 光 7285 同期)发布的 6 款至强铂金系列产品(能够反映 Intel2020 年发布的主流 CPU 产品的性能水平),海光 7285 产品CPU 的 SPECCPU2017 的实测性能与 Intel 同期发布的主流处理器产品的实测性能总体相当。
我国信创工程市场空间巨大。PC 和服务器合计出货量超过3000 万台。信创产业链包括 PC 和服务器整机,以及芯片、操作 系统、中间件、数据库、办公软件等核心组件。需求量基本假设和测算过程如下: 1)信创 PC:根据国家统计局数据,党政机关人数约 2000 万,我们假设党政人均 PC0.7 台,且已经有 600 万台 PC完成替 代,剩余 PC 假设分 6 年替换完成;八大行业人数约 3000 万,假设人均 PC0.6 台,分 6 年替换完成。按照 2023-2028 年 10%、20%、20%、20%、20%、10%的比例估算,2023-2028 年信创 PC 的市场容量分别为 260 万台、520 万台、520万 台、520 万台、520 万台、260 万台。 2)信创服务器:根据IDC 数据,2021 年我国服务器总出货量为 391.1 万台,以此为基数,假设未来服务器出货量年均复合 增长率为 5%,假设 2023 年信创服务器出货量能占到服务器总出货量的 12%,并自 2024 年起占比每年同比提高 3 个百分 点。以此估算,2023-2028 年,信创服务器市场容量分别为 52 万台、68 万台、86 万台、105 万台、126 万台、149万台。 根据我们的测算,预计 2023-2028 年,信创 PC 的市场容量分别为 260 万台、520 万台、520 万台、520 万台、520万台、 260 万台,合计为 2600 万台;服务器市场容量分别为 52 万台、68 万台、86 万台、105 万台、126 万台、149 万台,合计 为 586 万台。2023-2028 年,PC 和服务器合计出货量为 3186 万台。
5.3 华为拥有较为完整的信创产品体系,将是我国信创产业发展的重要推动力
在 CPU 芯片方面,华为具有鲲鹏 920 系列产品和鲲鹏 916 系列产品,其中鲲鹏 920 系列产品单处理器整型计算性能,相比 上一代提升 2.9 倍;在整机方面,华为有华鲲振宇、新华三、神州数码、宝德、清华同方等 10 多家合作伙伴;在服务器操 作系统方面,公司欧拉开源操作系统(openEuler, 简称“欧拉”)长生命周期版本更新到 openEuler 22.03 LTS SP2 版本, 创新版本更新到 openEuler 23.09 创新版本;在数据库方面,华为 openGauss 的长期支持版本 (LTS) 更新到 openGauss 5.0.0 (LTS), 社区创新版本 (Preview) 更新到 openGauss 5.1.0 (Preview)。当前,华为已经建立了涵盖芯片、整机、操作 系统、数据库等基础软硬件产品的较为完整的信创产品体系,我们认为,华为将是我国信创产业发展的重要推动力。
openEuler 装机量市占率已跨越操作系统的生态拐点,在政府、电信、金融领域表现突出。根据沙利文《2022 年中国服务器 操作系统行业市场研究报告》数据,2022 年,中国服务器操作系统装机量达到 401.2 万套,同比增长13.9%。其中,openEuler 系服务器操作系统市场份额达到 25.7%,市场份额已经跨过 16%的生态拐点。在政府、电信、金融领域,openEuler系服务 器操作系统表现突出,2022 年装机量市场份额分别为 50.3%、40.6%、30.6%,市场份额均排名第一。随着信创产业的持续 推进,我们判断,openEuler 系服务器操作系统装机量市场份额将持续提升。
华为数据库:从内部自用到共建生态,已经历二十多年的发展 华为数据库从内部自用发展到共建生态,已有二十多年的发展历程。根据 openGauss 网站信息,华为数据库产品的发展经 历了四个发展阶段:1)内部自用,2001-2011 年,华为数据库是华为内部自用的企业级内存数据库;2)产品化,2011-2019 年,华为数据库支撑公司内部 40+主力产品,在全球70+运营商规模商用 3 万+套,服务全球 20+亿人口;3)云&开源,2019- 2020 年,2019 年 5 月 15 日,华为 GaussDB 正式全球发布,兼容行业主流生态,完成金融等行业对接,2020 年 6 月 30 日,华为正式宣布开源数据库能力,开放 openGauss 数据库源代码,并成立 openGauss 开源社区;4)生态构建,2021年 至今,openGauss 分享企业级数据管理能力,引领生态建设。
华为数据库的公司内部配套、公有云的 GaussDB、开源 openGauss 共享代码基线,内核将长期演进。华为数据库的发展 是商用+自用+开源相结合,公司内部配套、公有云的 GaussDB、开源openGauss 共享代码基线,商用、自用、开源是同一 个单机内核,内核持续迭代演进,持续增强华为数据库的市场竞争力。openGauss 社区版本分为长期支持版本(LTS)和创新 版本(Preview),其中长期支持版本为规模上线使用,发布间隔周期为 1 年,提供 3 年社区支持,当前最新版本更新到 openGauss 5.0.0 (LTS);创新版本为联创测试使用,发布间隔周期为 1 年,提供 6 个月社区支持,当前最新版本更新到 openGauss 5.1.0 (Preview)。根据 openGauss 网站信息,截至目前,有 20 款基于 openGauss 开发的商业发行版通过了 openGauss 的社区认证。
华为高斯数据库 GaussDB 是华为自研的自用+商用数据库版本,广泛应用于金融等行业,在我国关系型数据库市场份额领 先。2023 年 6 月,在华为全球智慧金融峰会 2023 上,华为正式发布新一代分布式数据库 GaussDB。根据峰会的信息, GaussDB 已在华为内部 IT 系统和多个行业核心业务系统得到应用,并在金融、能源等行业的核心业务系统得到广泛应用, 支撑了中国工商银行、中国邮政储蓄银行、中国建设银行、中国农业银行等国有大行的核心业务,此外,也服务了陕西省财 政厅、中海油、国家管网、国网陕西电力、首都公路发展集团等关键行业企业。华为数据库在我国关系数据库市场份额领先。 根据 IDC 数据,2021 年下半年,华为在我国关系型数据库软件市场(公有云模式)厂商份额排名第四,在我国关系型数据 库软件市场(本地部署模式)厂商份额排名第二。我们认为,随着信创产业的发展以及 GaussDB 在下游行业的持续推广, 华为在我国关系型数据库软件市场的厂商份额有望持续提升。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
相关报告
计算机行业2024年年度策略报告:政策、市场、技术多重驱动,看好AIGC和信创.pdf
管理信息化信息化知识计算机信息系统集成的定义.docx
计算机行业专题报告:AI浪潮之下,液冷投资机会全梳理.pdf
计算机行业信息化及安全研究指南(初级篇):数字时代,行业先行.pdf
计算机行业专题报告:万物静息鸿蒙里,开源放量百花齐放开.pdf
计算机行业2024Q2前瞻策略:关注新质生产力与新型基础设施.pdf
AI人脸识别诈骗敲响金融安全警钟.pdf
AI搜索专题报告:怎么看Kimi的空间?.pdf
边缘AI行业研究报告:边缘AI硬件,引领硬件创新时代.pdf
人形机器人专题报告:AI驱动,未来已来.pdf
建筑行业2024年春季投资策略:新国九条催化央企市值国改,低空经济AI与铜矿有色弹性大.pdf