逻辑芯片市场规模巨大,产业链具备高门槛
2024年全球半导体销售有望迎来复苏
据WSTS数据显示,全球半导体产品销售总额从1999年的1494亿美元增长到2022年的5741亿美元,期间复合增速约6.03%。 WSTS预计2023年全球年销售额同比下滑9.4%,但2024年将有望增长13.1%。
消费者购买是半导体销售增长核心驱动
根据美国SIA发布2023年Factbook白皮书,绝大多数半导体需求是由消费者最终购买的产品驱动的,如笔记本电脑和智能手机。新兴市场消费者的需求越来越多地发挥驱动作用,这些新兴市场包括亚洲、拉丁美洲、东欧和非洲等。
全球PC、智能手机等出货量预测
根据IDC预测,2023年至2027年全球PC出货量的复合年增长率达到3.1%,增长动因来自于老机换新、AIPC推动的产品升级等。智能手机方面,IDC预测,2023年,全球智能手机市场出货量将会低于12亿台,同比下降1.1%;而中国市场的出货量预计将仅有2.83亿台,同比也会下降1.1%。2024年全球智能手机市场出货量12.63亿,同比增长5.9%;中国智能手机市场出货重新回到3亿市场大盘,同比增长6.2%。
逻辑器件是半导体产品市场规模最大的细分品类
根据SIA的报 告显示,半导 体产品细分市 场中,逻辑、 存储、模拟、 MPU四类占据 了大部分份额。 其中逻辑器件 规模最大。 按照分类逻辑 芯片主要包括 CPU、GPU等通 用 处 理 器 及 FPGA、CPLD等 专用性较强的 逻辑芯片。
逻辑芯片市场主要是美国大厂主导
根据SIA发布的2023年Factbook白皮书,2022年美国半导 体公司拥有最大的市场份额,占48%。其他国家半导体 产业占全球市场份额的7%到20%不等。 根据BCG analysis的分析,2019年逻辑芯片市场美国半 导体厂商占据了67%的市场份额,东亚(中国大陆除外) 占了15%的市场份额,欧洲占了8%的市场份额,中国大陆 占比仅个位数。 根据集邦咨询统计的2023年第三季度前十大IC设计业者 营收中(仅统计公开财报的),前五大厂商中,仅博通 的主业不是逻辑芯片为主。
CPU,算力的基础控制单元
中央处理器(central processing unit,简称CPU)作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元,电脑和智能设备的控制中枢。 CPU内部主要由运算器、控制器和寄存器组成,运算器执行数值计算,寄存器储存数据。
指令集,软件与硬件的接口
指令就是指示计算机硬件执行某种运算、处理功能的命令。 指令集又称指令系统架构,是CPU运行的软件的二进制编码 格式,是一种指令编码的标准规范,存储于CPU内部,用来 引导CPU进行加减运算和控制计算机操作系统的一系列指令 集合。 指令集可以分为复杂指令集(CISC)和精简指令集(RISC), CISC的代表是X86; RISC的代表是ARM。CPU指令集的兼容性 是生态规模的重要因素,构建高吸附性生态是竞争难点。 RSIC-V是一种新兴的开源精简指令集架构,因其具有开源、 免费、开放、自由等特点而呈加速发展之势。
软硬配合,生态构建高门槛
操作系统是连接硬件和数据库、中间件、应用软件的纽带,是承载各种信息设备和软件应用运行基础平台的重要基础性软件。CPU行业目前由两大生态体系主导:一是基于X86指令系统和Windows操作系统的Wintel体系,垄断个人计算机和服务器处理器市场;二是基于ARM指令系统和Android 操作系统的AA体系,主导了智能手机和物联网芯片处理器市场。前者生态相对封闭,后者生态相对开放,芯片厂商需要获得ARM的授权。 根据statcounter数据显示,在全球操作系统市场中,目前主要有Windows、Android、iOS、OSX、Linux五大操作系统竞争。
从“Tick-Tock”模式到“PAO”模式
Tick-Tock模型是Intel公司2006年提出的CPU发展路线,内含了提升CPU性能的两大主要驱动力,即是微结构改进和制程升级 。“Tick”是提升CPU的制造工艺,“Tock”是带来更好的微结构设计。 2017年,Intel对Tick-Tock周期进行了修正,从10nm制程CPU开始改为“制程-架构-优化” 的“三步走”战略,每次迭代周期拉升到3年。
制程升级是提升CPU性能的重要手段之一
根据AMD的数据,过去十年(2017往前),制程升级对CPU性能提升的贡献度在40%,其他推动因素依次分别为软件优化、电源管理、增大芯片面积等。 随着制造技术越来越复杂,发展、研究和开发时间也越来越长。台积电在2022Q4宣布量产3纳米鳍式场效晶体管制程。根据台积电规划,台积电N2技术将采用纳米片晶体管架构,计划于2025年开始生产。
先进制程投入巨大,供应格局愈加集中
根据集微咨询的数据显示,晶圆代工厂的投资 成本会随着工艺节点的先进程度提高而增长, 随着先进制程的开发,芯片制程缩小对晶圆代 工厂带来的建设成本急速上升,每万片5nm芯 片的晶圆厂建设成本已达到28nm芯片晶圆厂建 设成本的5-6倍。根据集邦咨询报道,英特尔已经向台积电下达 3nm 工艺订单,用于生产即将推出的Lunar Lake 芯片,这标志着台积电首次成为英特尔 主流笔记本CPU的独家生产商。
GPU,从显卡走向通用计算
GPU又称显示核心、视觉处理器,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。NVIDIA公司在1999年发布GeForce 256图形处理芯片时首先提出GPU的概念。从此NVIDIA显卡的芯片就用这个新名字GPU来称呼。GPU使显卡削减了对CPU的依赖,并执行部分原本CPU的工作,尤其是在3D图形处理时。 可编程性与浮点计算能力相结合,基于GPU的通用计算也开始出现,GPU朝着通用计算的方向持续演进。2006年,英伟达CUDA(Compute Unified Device Architecture,统一计算设备架构),及对应工业标准的OpenCL的出现,让GPU实现更广泛的通用计算功能,GPGPU的概念落地。
英伟达强大的重要推手之一:并行计算
并行计算(英语:parallel computing)一般是指许多指令得以同时进行的计算模式。在同时进行的前提下,可以将计算的过程分解成小部分,之后以并发方式来加以解决。相对于串行计算,并行计算可以划分成时间并行和空间并行。时间并行即指令流水化,空间并行使用多个处理器执行并发计算。并行计算机体系结构的发展主要体现在计算节点性能的提高及节点间通信技术的改进两方面。 弗林分类法,根据指令流和数据流的不同组织方式把计算机体系的结构分为四类:单指令流单数据流(SISD)、单指令流多数据流(SIMD)、多指令流多单数据流(MISD)、多指令流多数据流(MIMD)。
英伟达强大的重要推手之一:CUDA生态
2006年,NVIDIA推出CUDA,这是一种用于通用GPU计算的革命性架构。CUDA的存在使得开发者使用GPU进行通用计算的难度大幅降低,使得开发者可以相对简单有效地对英伟达GPU芯片进行编程,使科学家和研究人员能够利用GPU的并行处理能力来应对最复杂的计算挑战。 根据英伟达2023财年年报,目前有400万名开发者正在与CUDA合作。英伟达通过12年的时间达到200万名开发者,在过去的两年半里该数字翻了一番,目前CUDA的下载量已经超过了4000万次。
大模型走向多模态,技术持续演进,商业前景广阔
人工智能(AI)的定义
1956年,达特茅斯会议召开,提出了“人工智能”这个名词,标志着AI作为一个独立研究领域的诞生,该会议确立了AI的目标,即创建一种机器,其智能行为可以与人类的智能相媲美。 由于“智能”没有定义, “人工智能” 至今也尚无统一的定义。 现代人工智能技术是通过机器学习及由其驱动而发展起来的计算机视觉、自然语言处理和语音识别技术来实现多模态数据融合的现实交互。
人工智能(AI)的三大流派
符号主义,又称为逻辑主义、心理学派或计算机学派,其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理。知识工程是符号主义人工智能的典型代表,知识图谱就是新一代的知识工程技术。 联结主义,又称为仿生学派或生理学派,认为人工智能源于仿生学,神经网络,特别是对人脑模型的研究,主张模仿人类的神经元,用神经网络的连接机制实现人工智能。人工神经网络就是其典型代表性技术。 行为主义,又称进化主义或控制论学派,其原理为控制论及感知-动作型控制系统。波士顿动力公司的机器狗和机器人就是这个学派的代表作。
两个突破奠定了深度学习的崛起
深度学习的崛起得益于两个突破:一是庞大数据量 (ImageNet数据集);另一个是以GPU为代表的算力的 快速发展。 2012年的AlexNet神经网络模型是一个经典的CNN模型, 采用8层的神经网络,5个卷积层和3个全连接层(3个卷 积层后面加了最大池化层),包含6亿3000万个链接, 6000万个参数和65万个神经元,使用CUDA加速神经网 络的训练,利用了GPU强大的计算能力,在数据、算法 及算力层面均有较大改进。
神经网络是现代人工智能的基础
神经网络又称人工神经网络(ANN)或模拟神经网络(SNN),是机器学习的子集,同时也是深度学习算法的核心。神经网络其名称和结构均受到人脑的启发,可模仿生物神经元相互传递信号的方式。 Google的搜索算法就是最著名的神经网络之一。ChatGPT也是一种基于神经网络的聊天AI模型。生成式预训练是一种在自然语言处理领域特别成功的技术,它涉及以无监督的方式在海量数据集上训练广泛的神经网络,以学习数据的通用表示。
深度学习:基于对数据进行表征学习的方法
深度学习是从层到层的函数的复杂组合,从而找到定义从输入到输出的映射的函数。深度学习可以通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习的实质,是通过构建具有很多隐层的机器学习模型和海量的训练数据,来学习更有用的特征,从而最终提升分类或预测的准确性。 深度学习的优点是:学习能力强;覆盖范围广,适应性好;数据驱动,上限高;可移植性好。深度学习的缺点是:计算量大,便携性差;硬件需求高;模型设计复杂;可解释性不高,容易存在偏见。
AI框架是AI算法开发的必备工具
AI框架是AI算法模型设计、训练和验证的一套标准接口、特性库和工具包,集成了算法的封装、数据的调用以及计算资源的使用,同时面向开发者提供了开发界面和高效的执行平台,是现阶段AI算法开发的必备工具。深度学习平台下接芯片、上承应用,相当于“智能时代的操作系统”。
根据国际权威数据调研机构IDC发布《中国深度学习框架和平台市场份额,2022H2》报告显示,百度稳居中国深度学习平台市场综合份额第一,领先优势进一步扩大。中国深度学习开源框架市场形成三强格局,飞桨PaddlePaddle超过TensorFlow,框架市场前三份额超过80%。
算力板块投资的几条主线
中国算力资源位居世界第二
根据中国信通院发布的《中国算力发展指数白皮书(2023)》显示,从基础设施侧看,我国通用数据中心、智能计算中心持续加快部署,2022年基础设施算力规模达到180EFlops,位居全球第二,在用数据中心机架规模超过650万标准机架,已投运智能计算中心达到25个,在家智能计算中心超过20个。 从计算设备侧看,我国近六年累计出货超过2091万台通用服务器,82万台AI服务器,算力总规模达到302EFlops,全球占比33%,增速达50%,其中智能算力保持稳定高速增长,增速达72%。
区域失衡、云计算占比较低
根据《财经》的数据,中国算力资源位居世界第二,仅次于美国,但算力利用效率不高。其中有两个重要表现,一是数据中心上架率不够高,二是算力形态中云计算的占比也低。市场调研机构沙利文2023年数据显示,2022年中国数据中心整体平均上架率为58%。中国算力地区供需也相对失衡。华东、华北、华南地区上架率均在65%以上,西北、西南地区仅分别约为30%和40%。 根据《财经》掌握的数据,美国服务器总规模约为2200万台,公有云服务比例超过65%。中国服务器总规模约2000万,公有云输出比例仅有28%,大部分服务器以私有云形式存在。
各地方数据中心集群建设规划汇总
根据工业和信息化部副部长张云明在2023年7月的发言,我国算力基础设施建设扎实推进。2018年以来,我国数据中心机架数量年复合增长率超过30%。截至2022年底,在用标准机架超过650万架。根据中国信息通信研究院测算,2022年我国算力核心产业规模达1.8万亿元。
全球服务器CPU市场估算
据Counterpoint统计显示,2022年全球数据中心CPU市场收入同比下降4.4%。AMD的数据中心CPU收入同比增长62%,占据20%的市场份额。英特尔的数据中心CPU收入在2022年同比下降16%,而其市场份额下降至71%。基于ARM的CPU受到Ampere、Graviton(亚马逊)和Yitian(阿里巴巴)的青睐,收入首次超过10亿美元。 根据英特尔公布的财报数据,2022年英特尔DCG(数据中心事业部)营收为192亿美元,同比下滑26%。结合Counterpoint关于英特尔的市场份额来看,全球数据中心CPU市场规模大约在250~300亿美元。
报告节选:
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
相关报告
芯片行业深度报告:以“芯”助先进算法,以“算”驱万物智能.pdf
科德教育研究报告:手握国产AI芯片独角兽股权,价值亟待重估.pdf
源杰科技研究报告:国内光芯片龙头受益AI算力需求,拓展CW光源布局硅光赛道.pdf
灿芯股份研究报告:一体化芯片设计服务龙头,赋能行业蓬勃发展.pdf
半导体材料行业专题报告:芯片功耗提升,散热重要性凸显.pdf
龙迅股份研究报告:深耕高清视频芯片,积极拓展第二成长曲线.pdf