AI Agent 元年,端侧AI 支撑规模化扩张
从大模型(LLM)到智能体(Agent),智能助手的下一程
人工智能(AI)在用户软件使用方式上即将带来的根本性变革。比尔·盖茨在今年11 月提出,尽管软件已经经过了几十年的迭代,但使用方式仍然较原始,例如,当用户需要完成特定的任务时,需要告诉设备应该使用哪个应用程序。未来,用户不必再为不同的任务使用不同的应用程序,只需以日常语言告诉设备想要做什么,软件将能够因其对用户生活的深入了解而作出个性化响应。任何在线的人都将能够拥有一个 AI 智能体,由先进人工智能驱动的个人助手。未来,AI 智能体更倾向于是一种“代理”(agents),与当前AI 工具(bot)有所差异。Bot 仅限于单一应用程序,并且通常只在用户输入特定单词或寻求帮助时才介入。这些工具不会记住用户历史上如何使用它们,也不会变得更好或学习用户的任何偏好。而 AI Agent 更加智能:1)它们是主动的,能够在用户提问之前就提出建议;2)它们能够跨应用程序完成任务;3)它会随着时间的推移而改进,因为它们记得用户的活动,并识别其行为中的意图和模式。
百模大战只是起点,AI Agent 完成执行落地的完整闭环。LLM 初期,大家普遍认为 LLM 是通向通用人工智能的路径,但大模型只能被动的响应查询,可以完成对话、写故事、生成代码,比传统 AI 模型具有更强的理解能力和创造能力,但并不能直接到达 AGI(通用人工智能)的理想目标。而以AutoGPT 和BabyAGI 等项目为代表的 LAM 模型(Large-Action Models/Large-Agent Models),将LLM 作为Agent的中心,将复杂任务分解,在每个子步骤完成自主决策和执行,形成了具有多领域、多模态执行力的 AI Agent。
对于智能体的构建,高瓴人工智能学院提出了一个由四部分组成的框架,分别是:1)表示智能体属性的配置模块(Profile),旨在识别智能体是什么角色;2)存储历史信息的记忆模块(Memory),可将智能体置于动态环境中,使智能体能够回忆过去,帮助智能体积累经验、实现自我进化,并以更加一致、合理、有效的方式完成任务; 3)制定未来行动策略的规划模块(Planning),将复杂问题分解为简单的子任务,形成决策; 4)执行规划决定的行动模块(Action),负责将智能体的决策转化为具体的输出。
目前,基于 LLM 的 Agent 大多仍处于实验和概念验证的阶段,但相关的生态正在快速丰富,围绕 Agent 的研究工作也持续推进,2023 年可谓是AI Agent的元年,大量 Agent 被推出。
OpenAI 推出 GPTs,搭建通向 AI Agent 终局的桥梁
GPTs 在目前能力有限的 AI 和未来可能出现的 Autonomos AI Agent 之间架起了一座桥梁。2023 年 11 月 7 日,OpenAI 举行了首届开发者日,正式发布了自定义GPT——GPTs。无需代码,用户可以根据自己的指令、外部知识创建自定义版本的ChatGPT,这一功能被称为 GPTs。它们允许为特定目的构建定制化AI 机器人,而无需高级编码。同时,OpenAI 也会在本月底上线 GPT Store,让开发者们分享、发布自己创建的 GPTs。 GPTs 加强了通用 AI 大模型的实用性,有望极大加速Agent 领域的探索。GPTs可以连接到第三方平台上,在演示中,Altman 使用 ChatGPT 界面在设计应用Canva中模拟了一张海报,或是使用链接到 Zapier 的 GPT 扫描日历并查找日程安排中的冲突,然后自动返回冲突消息。未来,通过将不同的服务结合在一起,通用大模型就能完成非常复杂的任务,将想象落地成真正的虚拟助理、教练、导师、律师、护士、会计师等。
从自动化走向智能化,革新人机交互方式
Vivo 发布蓝心小 V,交互方式革新,AI 助手应用落地进入快车道。11 月1日,Vivo 举办“2023VDC 开发者大会”,发布了自研通用大模型矩阵蓝心大模型,并推出基于蓝心大模型开发的首款全局智能辅助蓝心小V、自然语言对话机器人蓝心千询等全新功能应用,以及 OriginOS 4 系统。蓝心大模型是vivo 自研的通用大模型矩阵,包含十亿、百亿、千亿三个参数量级,共5 款自研大模型(蓝心大模型 1B、蓝心大模型 7B、蓝心大模型 70B、蓝心大模型130B、蓝心大模型175B),从而满足不同的应用需求和算力条件。 蓝心小 V 是基于蓝心大模型的全局智能辅助应用,拥有更为自然、便捷的人机交互方式、丰富多维的信息表达。蓝心小 V 可以通过语音或文字,甚至是拖拽的方式,接受并处理信息数据,同时设计了便捷小巧的悬浮态,不用时最小化挂起,需要时再点击打开。这种无需唤醒的陪伴交互模式,打开了用户习惯AI 助手的第一步,已经和传统手机助手有所差别,更贴进 agent 概念。我们认为,蓝心小V的推出开启了手机 AI 助手迭代更新的时代,手机AI 助手将越来越贴近agent概念。
华为 8 月 4 日发布鸿蒙 4 操作系统(HarmonyOS 4),华为盘古大模型将助力鸿蒙操作系统和鸿蒙生态。盘古大模型是中国首个全栈自主的AI 大模型,包括“5+N+X”三层架构,分别对应 L0 层 5 个基础大模型、L1 层N 个行业大模型、以及L2层可以让用户自主训练的更多细化场景模型。其中,5 个基础大模型分别为盘古NLP(Natural Language Processing,自然语言处理)大模型、盘古CV(ComputerVision,计算机视觉)大模型、盘古多模态大模型、盘古预测大模型、盘古科学计算大模型。随着 5G+AI 进入千行百业,终端侧的生成式AI 与云端的通用大模型相结合,将能更好地赋能数字化转型,赋能千行百业。
HarmonyOS 4 新版本中的华为智慧助手小艺已经接入了盘古大模型,包括自然语言大模型、视觉大模型、多模态大模型,主要体现在多模态交互以及个性化创作两大能力。新升级的小艺可以实现更自然流畅的对话交互,拥有信息检索、摘要生成、多语种翻译等能力。
与此同时,三星在其第三季度财报电话会议上表示,将致力于把AI 技术内置于设备中,无需连接外部云端,让 AI 赋予手机设备全新体验。用户能够通过简单指令访问各种服务,而无需访问互联网。2023 年 11 月8 日,三星在最新的人工智能论坛上正式发布了其自研的生成式 AI 产品 Gauss,这款大模型由SamsungGauss Language、Samsung Gauss Code 和 Samsung Gauss Image 三个部分组成,面向 AI 聊天、AI 代码和 AI 图片等领域。目前,三星表示Gauss 主要用于提高员工生产力,但未来将在各种三星官方 App 中扩展应用范围,以提供更好的用户体验。预计 Gauss 未来可能在三星 Galaxy S24 系列中首次亮相,成为三星第一款“AIGalaxy Phone”。
电脑方面,联想提出 AI Twin 概念,并推出全球首款AI PC。北京时间10月24日晚上,联想举行了 2023 联想 Tech World 创新科技大会,主题是“AI forAll”。重点展示了联想在端侧大模型方面的能力,并推出了联想的首款AI PC,预计明年 9 月后上市。 微软与联想合作打造个人级 AI Twin 和企业版的 Enterprise AI Twin。智能设备是用户的数字延伸,如同用户的双胞胎,称之为 AI Twin。而EnterpriseAITwin从企业内部设备、边缘和私有云中提取相关信息,做出本地化推理,提出相应解决方案。例如可以用 Enterprise AI Twin 规划供应链情况,既能保证企业数据的隐私性,又能更好的制定出匹配企业自身情况的方案。联想推出的首款 AI PC,在更好地了解用户的基础上,AI PC 能够创建个性化的本地知识库,通过模型压缩技术本地化运行个人大模型,实现AI 自然交互。AIPC是为每个人量身定制的全新智能生产力工具,将进一步提高生产力、简化工作流程,并保护个人隐私数据安全。发布会上,联想将云端大模型和端侧大模型对比运行,端侧 AI 速度慢一点,但两者生成行程规划的速度并没有差别太多,且规划更加个性化,能够将家庭地址、酒店偏好等考虑进去。演示中还进一步展示了端侧大模型的多模态能力,利用用户输入的提示,电脑迅速地生成了一张相关图片。
考虑成本、隐私与安全,混合 AI 是AI 应用规模化的必经之路
随着 AI Agent 继续推进,AI 应用的规模化扩张势在必行,算力成本、效率都将成为瓶颈,因此高通提出混合 AI。高通提出的混合AI 指终端和云端协同工作,在适当的场景和时间下分配 AI 计算的工作负载,以提供更好的体验,并高效利用资源。在一些场景下,计算将以终端为中心,在必要时向云端分流任务。混合AI能帮助实现 AI 的规模化扩展并发挥其最大潜能一一正如传统计算从大型主机和客户端演变为当前云端和边缘终端相结合的模式。
混合 AI 对生成式 AI 规模化扩展至关重要。拥有数十亿参数的众多生成式AI模型对计算基础设施提出了极高的需求。因此,无论是为AI 模型优化参数的AI训练,还是执行该模型的 AI 推理,至今都一直受限于大型复杂模型而在云端部署。AI推理的规模远高于 AI 训练。尽管训练单个模型会消耗大量资源,但大型生成式AI 模型预计每年仅需训练几次。然而,这些模型的推理成本将随着日活用户数量及其使用频率的增加而增加。在云端进行推理的成本极高,这将导致规模化扩展难以持续。
节省成本是混合 AI 的主要推动因素。举例来说,据估计,每一次基于生成式AI的网络搜索查询(query)其成本是传统搜索的 10 倍。混合AI 将支持生成式AI开发者和提供商利用边缘终端的计算能力降低成本。混合AI 架构可以根据模型和查询需求的复杂度等因素,选择不同方式在云端和终端侧之间分配处理负载。例如,如果模型大小、提示(prompt)和生成长度小于某个限定值,并且能够提供可接受的精确度,推理即可完全在终端侧进行。如果是更复杂的任务,模型则可以跨云端和终端运行混合 AI 还能支持模型在终端侧和云端同时运行,也就是在终端侧运行轻量版模型时,在云端并行处理完整模型的多个标记(token),并在需要时更正终端侧的处理结果。此外,能耗、可靠性、性能和时延、隐私与安全、个性化都是混合 AI 的优势。
手机:AI Agent 落地的理想载体
智能手机存量竞争时代,AI 智能体有望开启创新驱动周期
全球智能手机市场进入存量发展阶段,用户换机周期延长。全球智能手机市场在经历了快速发展的“黄金十年”后,现已进入存量发展的阶段,根据IDC数据,全球智能手机出货量在 2016 年达到 14.69 亿部的高点,2022 年出货量仅12亿部,6 年 CAGR 为-3.31%。尽管 3Q23 以来,全球手机销量出现了同比复苏,但在经济增长承压、居民消费动力不足、手机创新匮乏的背景下,手机用户的平均换机周期显著延长,Counterpoint 统计中国 2022 年手机换机周期长达43 个月,全球智能手机行业面临着缺乏增长动力的问题。
AI 智能体的出现,将显著提高手机智能化程度,颠覆现有人机交互模式。但消费电子行业是长周期行业,创新是最核心的驱动因素,AI 助手升级有望开启智能手机新一轮创新周期。随着生成式 AI 的发展,人机交互的方式将得到进一步完善,这种全新用户体验会完全改变智能终端的用户体验。边缘侧AI 技术将为AI的创新和发展打开无限想象空间,在更加广泛的消费电子产品品类中为用户带来全新的 AI 体验,释放生成式 AI 的潜能。
头部芯片厂商针对性升级,旗舰机型率先适配
第三代骁龙 8 移动平台是高通首个专为生成式 AI 而打造的移动平台。10 月25日,高通(Qualcomm)发布新一代旗舰平台骁龙 8 Gen3,其拥有面向移动终端的性能强大的 NPU,并利用 AI 能力增强旗舰智能手机的内容创作、影像、游戏、音频和连接体验。其采用 4nm 工艺技术,搭载业界最快的设备端内存LPDDR5X,与前代平台相比,其 AI 性能提升 98%、能效提升 40%。第三代骁龙8 率先支持多模态生成式 AI 模型,现已能够在终端侧运行高达 100 亿参数的模型,面向70 亿参数大语言模型每秒生成高达 20 个 token。 与前代平台相比,第三代骁龙 8 的 Hexagon NPU AI 性能提升高达98%,能效提升高达 40%;Kryo CPU 性能提升 30%,能效提升 20%;Adreno GPU 性能提升25%,能效提升 25%。
高通发布骁龙 8 Gen3 后,小米 14 系列立刻首发搭载,手机厂商渴创新升级已久。10 月 26 日,小米正式发布小米 14 和小米 14 Pro 旗舰智能手机,均搭载第三代骁龙 8 移动平台。在高通赋能下,目前小米自研的 60 亿参数大模型已经在第三代骁龙 8 移动平台上流畅运行,可以实现媲美更大参数量模型的能力,将在知识问答、文字扩写、表格生成、编写代码等生成式 AI 应用方面为用户开启全新体验。此外,得益于第三代骁龙 8 全面升级的 AI 能力,小米14 Pro 还支持终端侧AI大模型图像处理,实现图像填充、魔法消除等功能。
联发科:11 月 6 日,联发科(MediaTek)发布最新天玑9300 旗舰5G 生成式AI移动芯片。天玑 9300 芯片搭载新一代 Cortex-X4 和 Cortex-A720,是率先采用全大核 CPU 架构的旗舰移动芯片,搭载四个 Cortex-X4 超大核和四个Cortex-A720大核。其中单核性能提升超过 15%,多核性能提升超过40%,4 个Cortex-X4CPU主频最高可达 3.25GHz,4 个 Cortex-A720 CPU 主频为2.0GHz,内置18MB 超大容量缓存组合,三级缓存(L3)+系统缓存(SLC)容量较上一代提升29%。天玑9300芯片采用台积电第三代 4nm 先进制程,采用联发科第二代创新旗舰封装设计,运用先进的能效技术,精准控制 CPU 的性能和功耗,多核功耗较上一代节省达33%。天玑 9300 芯片率先搭载基于硬件的生成式 AI 引擎,兼顾安全和个性化。天玑9300芯片搭载联发科第 7 代 APU 架构内建硬件级的生成式AI 引擎,生成式AITransformer 运算速度快 8 倍,具有 2 倍整数和浮点运算速度,功耗较前一代降低 45%。同时,联发科提供完整的工具链,支持 NeuroPilot Compression内存硬件压缩技术,搭载首款生成式 AI 端侧技能扩充(LoRA Fusion)技术,能够协助开发者在端侧快速且高效地部署多模态生成式 AI 应用,为用户提供包括文字、图像、音乐等在内的终端侧生成式 AI 创新体验,最高可支持330 亿参数的AI 大模型。
Vivo X100 系列全球首发搭载联发科新一代移动平台——天玑9300,与vivo新一代 6nm 自研影像芯片 V3 通过第二代 FIT 双芯互联技术实现无缝衔接。
苹果:2014 年,苹果在其新一代架构芯片 SoC 中加入专门的AI 芯片,设计思路由 CPU 和 GPU 处理的 AI 任务转向由专门的 AI 芯片进行处理。目前苹果A系列芯片已更新至 A17,每秒 AI 算力达到 35 TOPS。同时,为了能够在终端设备上高效执行更高难度的机器学习任务,苹果落地了其神经引擎处理器(AppleNeuralEngine)。苹果几乎在所有自研芯片中都加入了 NPU 模块,从Mac 电脑中用的M1、M2 系列芯片到 iPhone 中的 A 系列芯片,无一例外。这也是苹果各类产品可以高效实现 AI 功能的底层基础技术支撑。目前,苹果Siri 的升级明显落后于其他厂商,但在芯片 AI 算力以及 AI 嵌入功能上做了充分布局,依然是AI Agent手机端落地竞赛最有力的参与者。
AI PC:端侧AI 应用有望加速PC换机周期温
特尔联盟与安迪-比尔定理推动计算机软硬件螺旋式上升演进
温特尔联盟通过制定行业标准和模块化生产的策略来控制和主导其它平行企业,蕴含了软硬件的密切配合。“温特尔”(Wintel)各取微软操作系统“Windows”和芯片处理器英特尔“Intel”的一部分组合而来。温特尔架构指由微软Windows操作系统与英特尔 CPU 所组成的个人计算机;温特尔联盟指微软与英特尔所组成的商业联盟,表示自上世纪 80-90 年代起,微软和英特尔通过制定结构性的行业标准和模块化的生产模式,对计算机组装企业(如IBM、Dell 等)形成产业链上的控制。
温特尔联盟推动了全球 PC 产业链的发展,由于其垄断桌面端长达20 多年且未发生重大变化,全球 PC 出货量自 2014 年后相对低迷。据IDC 数据,全球PC出货量自 2014 年达到顶峰 5.38 亿部后,呈现逐年下滑趋势,降至2018 年的4.06亿部;虽此后年度出货量有所上升(主要受疫情期间“宅经济”影响),但仍未超过2014 年峰值水平。2022 年全球 PC 出货量仅 4.54 亿部,同比减少12.5%。全球 PC 竞争格局自 2016 年后保持稳定,亦几无较大变化。据IDC 数据,2016-2021年,联想占全球 PC 市场份额最高,且份额逐年攀升,由16.1%上升至19.2%;苹果占全球 PC 市场份额位居第二,其份额亦由 14.0%上升至16.5%。2022 年,苹果以全球 PC 市场份额 19.5%跃升至第一,联想份额降至17.5%位居第二。此外,惠普、戴尔、三星的全球 PC 市场份额分为位于第三至第五位,保持相对稳定。
温特尔联盟的本质是硬件芯片与软件系统间的最佳结合、协同更新,计算机产业生态链围绕“安迪-比尔定理”进行螺旋式发展演进。安迪-比尔定理(AndyandBill’s Law)是对 IT 产业中软件和硬件升级换代关系的概括。其中,安迪指英特尔前 CEO 安迪·格鲁夫,比尔指微软前 CEO 比尔·盖茨。所谓“What Andy gives,Billtakes away”,意指无论硬件提高了多少性能,最终都会被软件消耗掉。一般来讲,以微软为代表的软件厂商将会消耗硬件升级所带来的全部性能提升,迫使用户更新机器,让硬件厂商受益;同时硬件厂商将利润投入研发,按照摩尔定律提升硬件性能,为软件厂商下一步更新软件做准备。
生成式 AI 与端侧 AI 先行,有望倒逼智能设备端侧硬件性能升级
随着生成式 AI 的快速发展,人机交互方式得到进一步完善,端侧AI 应用及个人大模型打破了软硬件迭代式演进规律。根据“安迪-比尔定理”,软件的更新升级一般要与硬件资源所匹配;但本轮以 OpenAI ChatGPT、Windows Copilot、个人大模型为主的 AI 应用在软件及系统层面率先作出巨大改变和升级,给广大用户带来全新的智能终端及智能交互体验,打开广阔想象空间,释放想象力和创造力。2023 年 3 月,微软推出 Microsoft 365 Copilot,宣布Microsoft 365 全面接入AI 功能。作为一项全新的生产力特性,Microsoft 365 Copilot 将大语言模型与Microsoft 365 结合,通过生成式 AI 助手自动生成文档、制作专业表格、优化PPT排版、处理电子邮件等功能,大幅提高用户创造力及工作效率,同时嵌入于Word、Excel、PowerPoint、Outlook 和 Teams 等微软应用中:Copilot in Word 能够协助用户一同撰写、编辑、总结和创作;Copilot inExcel能够帮助用户识别数据趋势,并在短时间内创建专业型数据可视化方案;Copilotin PowerPoint 能够帮助用户通过自然语言的方式将想法转化为设计好的演示文稿,并且利用自然语言调整布局、编排文本、创建动画等;Copilot inOutlook能够帮助用户整合并管理收件箱,并根据具体语境语态起草邮件内容。
微软推出 Windows Copilot,成为第一个提供集中生成式AI 协助的电脑平台。2023年 5 月,微软在开发者大会上宣布推出 Windows Copilot,并在6 月底上线开发者预览版。Copilot 是一种使用自然语言处理技术或大语言模型,帮助人们完成复杂或认知任务的应用程序或组件。作为微软在 Windows 11 中加入的AI助手,Copilot 集成了在操作系统中的侧边栏工具,可以帮助用户完成各种任务,包括回答问题、总结信息、编辑文档、调整计算机设置等。
智能设备作为 AI 触达终端用户的终极载体,正在成为AI 未来发展与落地的重要突破口,因此联想全球首款 AI PC 应运而生。10 月24 日,联想在Tech World创新科技大会上展示了联想在端侧大模型方面的能力,并推出全球首款AIPC,预计 2024 年 9 月后上市。发布会上,联想将云端大模型和端侧大模型对比运行,虽然端侧 AI 速度相对慢一些,但两者生成行程规划的速度差别不大,且端侧模型考虑了家庭地址、酒店偏好等因素,规划更加个性化。此外,联想还进一步展示了端侧大模型的多模态能力,利用用户输入的提示,电脑迅速生成了相关图片。联想提出“三个大模型”框架处理涉及用户隐私和企业商业秘密问题。“三个大模型”分别包括:1)公共大模型,使用公共开放的数据进行训练;2)私域大模型,先用互联网通用数据训练,再用企业数据进行训练,最后集成包含企业知识的向量数据库信息,来自现有企业子系统(如 ERP、CRM 和MES);3)个人大模型,通过裁剪和量化等方法来缩小模型,同时保证性能。在做用户任务之前,需要先用“数据安全和隐私管理”模块评估任务的隐私级别。不涉及隐私的一般任务将被发送到公共大模型;涉及隐私的任务,则需要进行任务理解、任务拆分、敏感信息脱敏和反脱敏,并用私域大模型和个人大模型来完成。
联想表示,AI PC 需要能够运行个人大模型,并具备更强算力,支持异构计算。11 月 22 日,联想集团董事长兼 CEO 杨元庆在《财经》年会上解释个人大模型是指部署在个人智能设备或家庭服务器上,使用存储在本地的个人数据进行推理和学习的人工智能基础模型。在此基础上,他定义 AI PC 需要具备五大核心特质:1)AI PC 能够运行经过压缩和性能优化的个人大模型;2)具备更强的算力,能够支持包括 CPU、GPU、NPU 在内的异构计算;3)具备更大的存储,能够容纳更多个人全生命周期的数据并形成个人知识库,为个人大模型的学习、训练、推理、优化提供燃料;4)具备更顺畅的自然语言交互,甚至可以用语音、手势完成互动;5)具备更可靠的安全和隐私保护。
端侧 AI 能力是实现生成式 AI 全球规模化扩展的关键,端侧AI 快速发展倒逼端侧硬件性能升级。端侧 AI 的演进与生成式 AI 需求密切相关,软件先行掀起了对于算力、存储等硬件层面性能提升的需求浪潮,高通、苹果等各大芯片龙头争先推出能够在端侧运行生成式 AI 模型的处理器芯片。10 月 25 日,高通发布面向 Windows 11 PC 的旗舰PC 芯片骁龙X Elite,支持在端侧运行超过 130 亿参数的生成式 AI 模型。骁龙X Elite 具备行业领先的NPU,在众多支持 Windows 11 的 PC 平台中拥有一流的 CPU 性能和能效。其采用4nm工艺技术,采用定制的集成高通 Oryon CPU,12 核 CPU 性能可达到x86 处理器竞品的 2 倍,多线程峰值性能比苹果 M2 芯片高出 50%,GPU 算力可达4.6TFLOPS,AI处理速度达到竞品的 4.5 倍,异构 AI 引擎性能达75TOPS,支持在终端侧运行超过 130 亿参数的生成式 AI 模型,面向 70 亿参数大语言模型每秒生成30 个token。骁龙 X Elite 平台专为生成式 AI 打造,领先的终端侧AI 推理为PC 体验来带变革。预计搭载骁龙 X Elite 的 PC 将于 2024 年中面市。
10 月 31 日,苹果发布新一代 M3 系列芯片,其中 M3 Max 支持开发数十亿参数的Transformer 模型。苹果 M3 系列芯片包含 M3、M3 Pro、M3 Max 三款,采用3nm工艺打造,配备下一代 GPU、更高性能 CPU、更快的神经引擎以及对更统一内存的支持。M3 系列芯片具有增强的神经引擎,可加速强大的机器学习模型。神经引擎比 M1 系列芯片快 60%,使人工智能、机器学习工作流程更快,同时将数据保留在设备上以保护隐私。特别是 M3 Max 支持高达 128GB 的统一内存,使AI 开发人员能够开发数十亿参数的 Transformer 模型。
处理器龙头客户端收入边际增长,AI 应用促进PC 市场景气回升
随着端侧 AI 应用深化及终端 AI 芯片陆续推出,PC 换机周期有望得到加速。英特尔和 AMD 是全球个人 PC 处理器领导者;据 Counterpoint 数据,2022 年英特尔CPU以近 70%的份额在笔记本电脑市场中占据主导地位;AMD 紧随其后,排名第二。结合英特尔和 AMD 最新业绩情况可以看到,其面向 PC 等客户端相关产品业绩收入的边际增长预示着 PC 市场已逐步复苏回暖,景气度逐步上升。
英特尔业务部门中客户端计算事业部面向个人 PC 提供CPU 等产品。英特尔业务部门包括客户端计算事业部(CCG)、数据中心与人工智能事业部(DCAI)、网络与边缘事业部(NEX)、Mobileye 事业部(Mobileye)和英特尔代工服务事业部(IFS)。其中,客户端计算事业部专注于长期的操作系统、系统架构、硬件和应用程序集成,提升 PC 功能;其主要产品是 Core(酷睿)处理器,包括专门为笔记本电脑和台式机设计的处理器。
FY23 以来英特尔客户端计算事业部季度收入逐季增长,同比降幅持续收窄;FY3Q23 收入环比增长 16.0%。据英特尔客户端计算事业部数据,FY1Q22-FY3Q23公司客户端计算事业部收入及占比呈现先降后增趋势。客户端计算事业部是公司占比最高的业务,多数季度占比一半以上。FY22 特别是下半年客户端计算事业部收入下滑,主要由于宏观经济疲软对 PC 的潜在市场产生了负面影响,特别是在消费、教育和中小型企业市场。自 FY1Q23 起,公司客户端计算事业部收入逐季增加,环比涨幅分别为 17.6%、16.0%,同比减幅亦加速收窄。FY3Q23 公司客户端计算事业部收入同比减幅收窄至 3.2%,环比增长 16.0%。
AMD 业务部门中客户端部门面向个人 PC 提供 CPU 等产品。AMD 业务部门包括数据中心(Data Center)、客户端(Client)、游戏(Gaming)、嵌入式(Embedded)四大部门。其中,客户端部门致力于为终端用户带来更好的系统稳定性、更强的性能和更高的功率效用,主要产品包括用于台式机和笔记本电脑的CPU、APU 和芯片组。
FY23 以来 AMD 客户端部门季度收入持续增长,同比降幅收窄至由负转正;FY3Q23收入环比增长 45.6%。据 AMD 客户端部门数据,FY2Q21-FY3Q23 公司客户端部门收入及占比呈现先降后增趋势。FY2Q21-FY2Q22,客户端部门是公司占比最高的业务,占比达 1/3 以上。由于 2022 年 PC 市场需求疲软,以及2022 年下半年PC供应链经历重大库存调整导致产品出货量下降,公司客户端部门收入在FY3Q22大幅下降。自 FY1Q23 起,公司客户端部门收入逐季增加,环比涨幅分别为35.0%、45.6%,同比变化幅度逐渐由负转正。FY3Q23 公司客户端部门收入同比增长42.4%,环比增长 45.6%。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
相关报告
AI终端行业专题报告:从大模型到智能体,端侧算力助力AI规模化应用.pdf
AI人脸识别诈骗敲响金融安全警钟.pdf
AI搜索专题报告:怎么看Kimi的空间?.pdf
边缘AI行业研究报告:边缘AI硬件,引领硬件创新时代.pdf
人形机器人专题报告:AI驱动,未来已来.pdf
建筑行业2024年春季投资策略:新国九条催化央企市值国改,低空经济AI与铜矿有色弹性大.pdf