大模型进入“多模态”、“轻量化”时代
核心观点:AI 大模型落地成为终端出货成长新动能,接下来一年重在软硬件适配和产 品打磨,从“AI+产品”(出货量提升)到“产品 AI 化”(量价齐升),有望成为 2-3 年维 度的成长主线。2023 年以来,以 ChatGPT 为首的 AIGC 快速普及和渗透,各主芯片、品 牌厂商已在各类智能终端上发布了 AI 相关应用。然目前各类 AI 终端应用仍未达到成熟阶 段,我们认为接下来一年,终端 AI 的发展重在软硬件适配和产品打磨,终端 AI 发展(形 态包括智能手机、PC、IoT 等)仍为长期重点关注方向,预计 2025 年起开启需求周期。
云端(大脑)是根本,端侧(小脑与四肢)加入轻量智能与感知能力
核心观点:混合 AI 是 AIGC 时代下主流趋势,端侧 AI 将承担更多工作负载,建议关 注重量级/轻量级 AI 产品升级、零部件配套变化以及对终端市场成长带动。我们认为,以 云端作为 AI 大脑(以大算力、高带宽、大存储的芯片为主)处理主要的训练和部分推理任 务,边缘端和终端作为小脑与四肢(如手机 SoC 增加 NPU,主打低功耗、多传感器融合) 处理即时、频繁的用户端推理任务,并具备成本、隐私性双重优势,两者相结合的混合 AI 模式分配并协同处理 AI 工作负载,能够实现更强大、更高效且高度优化的 AI。对于端侧 AI,我们将产品按算力区分为重量级和轻量级:1)重量级 AI 产品:算力相对较强,如手 机、PC、机器人、汽车、边缘服务器等;2)轻量级 AI 产品:IoT 类产品,主要承担数据 入口的抓手功能,不一定强调算力升级,而更多关注传感器、连接类芯片升级。
综合来看,端侧 AI 时代下,我们建议关注四个方向:1)重量级产品的升级(算力本 身及配套的变化:主控芯片算力、大容量存储、高速互联、Chiplet 封装需求提升);2)轻 量级产品的升级(适应 AI 变化的端侧入口能力的增强:传感器升级,如麦克风、摄像头、 3D sensing、低功耗、传输互联等);3)零部件配套变化(更大的算力芯片、存储会倒逼 其他元器件全方位配套升级,如功耗升级背景下的散热等零部件、充电模块的同步升级等); 4)终端品牌出货量的提升(我们认为 2024 年更多是量增逻辑,2025 年将开启量价齐升 的周期)。
AIGC 发展迅猛,混合 AI 成为 AIGC 规模化扩展的关键。由于千亿参数大模型对计算 基础设施提出了极高的需求,因此无论是训练还是推理,大型复杂模型至今仍在云端部署。 然而 AI 推理的规模远高于 AI 训练,而目前云端推理的成本仍然较高,且将随着日活用户 数量及其使用频率的增加而提升。以生成式 AI 搜索为例,每一次生成式 AI 搜索成本是传 统搜索方法的 10 倍。此外,云端推理还有能耗过大、可靠性和时延影响用户体验、数据 隐私安全难以有效保证等问题,在此背景下,混合 AI 应运而生。混合 AI 是指终端和云端 协同工作,在适当的场景和时间下分配 AI 计算的工作负载,高效利用资源,提供给用户更 好的体验,让 AIGC 向 C 端更快速地规模化扩展。
云端:算力强大、应用广泛,仍是 AIGC 时代的根基。近年来,大模型参数量爆炸式 增长,根据 OpenAI,从最早的 GPT-1 仅有 1.1 亿参数,到 GPT-4 提升到 1750 亿参数, 产生巨量的训练需求。云端作为大模型各个玩家的主战场,需要巨大的 CAPEX 投入做算 力提升,加快模型的迭代速度。从大模型使用角度,终端由于对功耗限制严格,只有在一 些重量化设备上才能本地化运行一些小参数模型(目前在 100 亿参数以下),现阶段仍然 作为 AIGC 时代的重要数据和流量入口,云端仍为 AIGC 时代为万物赋能 AI 的主力。
边缘端:综合考虑能力和隐私保护后的权衡选择。随着 AI 快速发展,算力需求激增, 传统云计算架构已经不能满足计算需求。同时,随着数据隐私性和及时响应性愈发重要, 传统云计算架构渐显弊端,边缘计算应运而生。边缘计算将从终端采集到的数据,在靠近 数据源处的算力设备(如在边缘服务器)中直接进行推理计算,无需再将数据传输至云端 数据中心,在优化处理的同时降低成本。从处理能力看,边缘服务器布局于云端与终端之 间,所用模型为云端大模型的垂类模型,能够承担十亿/百亿级别的推理任务。从应用上看, 我们认为边缘端具备成本、隐私性双重优势,且算力持续提升,有望率先落地于智慧安防、 智慧社区/园区、泛商业等 B 端场景,以及对数据安全、私有云有特别需求的大型央国企端。 1)智慧安防&城市治理:相关 AI 解决方案能够立体管控公共区域,实现城市的精细化管 理。2)智慧社区&园区:提升社区服务与管理能力,规划社区职能,提升社区运行效率, 以及为工业园区、政府机关等城市微单元提供包括通行管理在内的多种智慧服务。3)智 慧泛商业:分析消费者属性,辅助商户进行商业决策。4)大型央国企端:边缘端 AI 可以 形成类似机房等私有云场景,避免数据直接上云,满足央国企对数据安全以及 AI 协同优化 处理的需求。
终端:加入轻量级智能化能力,以及承担主要数据入口的抓手功能。我们认为:终端 AI 落地优势主要有以下几点:(1)保证数据隐私性:大部分用户仍然对真正涉及到隐私或 敏感的信息上传云端偏抵制,但同时又希望未来大模型能够帮助提升效率,希望 AI 能够更 快掌握部分个人信息;出于信息安全考虑,端侧 AI 更容易落地。(2)提升用户体验(响 应速度更快、随时待命):受制于传输速度、用户需求庞大、算力不足等因素,部分应用 在云端推理会影响用户体验。端侧算力仅为用户所用,且无需等待,大幅提升用户体验。 (3)使用成本更低:云端单次访问、推理的成本较高(云端 AI 会走订阅的方式需持续缴 费),且将随着大模型日活用户数量及其使用频率的增加而提升,若大量简单的基础需求 均上传至云端处理会导致使用成本较高,失去经济性。而端侧落地大模型将大幅降低用户 使用成本。(4)个性化定制:端侧 AI 将能够在不牺牲隐私的情况下,根据用户的习惯、 喜好进行个性化定制,并且可以随着时间推移进行学习和演进。
终端厂商的强力助推也正向强化了 AIGC 落地到端侧的可能性:(1)抢占流量入口: 随着端侧 AI 能力越来越强,从流量入口角度看,手机、PC 等终端厂商云端能力或话语权 相对较弱,更有意愿掌握端侧流量的入口。(2)带动换机需求:近年来智能手机的换机需 求和购机驱动 TOP10 里主要还是来自于硬件,如屏幕、快充、无线充等,目前硬件同质 化竞争,差异化减少,我们认为软件即 AI 大模型能力能够优化很多消费者的使用体验,从 而驱动换机需求,成为购机驱动因素的 TOP3。
端侧 AI 的局限性:大模型终端落地对算力、传输、功耗、散热等环节仍有挑战。我 们认为,终端落地大模型仍有以下问题待解决和提升:(1)算力需求升级:目前最新的高 通骁龙 8 Gen3 和联发科天玑 9300 已支持百亿以下参数大模型,未来端侧模型参数量仍 有提升空间,各厂商 SoC 除传统 CPU、GPU 等升级外,NPU 需加大升级力度提升 AI 算 力性能。(2)存储和传输能力升级:内存除了参数的存储,更重要是传输读取,这决定了 大模型答案生成速度,如果存储和传输条件不足,则端侧 AI 不如联网访问云端的体验。(3) 电池续航与散热能力升级:芯片、传感器等硬件性能增强导致功耗提升,会加大电量损耗、 功耗管理和散热问题。因此,即便终端主要负责推理任务,在传统硬件配置基础上,仍难 以做到短期内落地百亿以上参数的大模型,相关配置均需升级。
产品同质化、杀手级应用未能大规模出现是端侧 AI 发展面临的主要问题。(1)AI 大 模型+IoT 是长期趋势,后续终端同质化竞争可能较为严重。智能手表、手环、AR/VR 眼 镜以及 AI Pin 等新 IoT 形态,由于产品设计不足以支持本地化大模型运行,AI 功能主要通 过联网云端实现。我们认为,AIGC 渗透率持续提升背景下,AI 大模型+IoT 硬件产品有望 大规模涌现,而产品核心竞争力(AI 大模型性能)仍掌握在大型互联网厂商手中,硬件能 力相对容易满足,因此未来可能出现严重的产品同质化现象。(2)杀手级应用仍未大量出 现:目前使用端侧大模型运行的应用主要是对原有功能的智能化升级,一方面终端大模型 性能仍较云端有较大差距,另一方面,各厂商大模型仍未和各 APP 间连通生态,因此目 前没有刚需应用或杀手级应用大量出现。
OpenAI 发布 GPTs 打造应用商店与杀手级应用雏形
核心观点:大型语言模型(Large Language Model,LLM)朝“多模态”、“轻量化” 发展,GPTs 应用商店加速杀手级应用出现。2022 年末 ChatGPT 发布标志着 AIGC 时代 来临,随后的一年内各互联网、终端品牌厂商大模型集中落地,行业发展加速。我们认为, 大模型正向“多模态”、“轻量化”趋势发展,OpenAI 也着手打造应用商店激发开发者创 造潜力,加速杀手级应用出现,硬件端如高通、苹果、英特尔、AMD 也已提前布局,为 端侧 AI 爆发式增长做好准备。
OpenAI 主导的生成式人工智能 AIGC 路径,建立在超大规模的数据学习基础上,基 于模型训练和 RLHF 人类反馈强化学习,可用于文本、图片、代码等多模态信息生成和交 互。ChatGPT 的技术根基来自于 2016 发表的 Transformer 模型(由谷歌最先提出),用 通俗的语言来解释,这一模型的工作就是通过分析数据单字间的统计学关联,从而预测句 子中将要出现的下一个词或者空缺的词的概率。通过不断计算空缺单词的概率分布,模型 最终通过统计学的原理生成一个完整的句子。回顾 OpenAI 的发展历程,ChatGPT 的成 功并非横空出世,而是经历了超过 7 年、多于三代的技术积累与迭代,并在这一过程中走 出了自己的开创性道路。
——(1)Transformer 问世,语言模型研究进入新阶段。OpenAI 成立于 2015 年,在当时的学术界仍然以深度学习为核心的小模型占据主流:这类模型以 LSTM 及 CNN 模 型作为典型的特征抽取器,根据特定领域标注数据训练,在一些任务上可以达到接近人类 的水准。但是硬件算力不够导致针对其他领域重新训练成本过高,让其通用型任务的完成 情况很差。2017 年,谷歌 Bert 为代表的双向预训练+Fine Tuning(微调)的 Transformer 模型横空出世成为了人工智能的主流方向,OpenAI 紧随谷歌之后,于 2018 年发布基于 Transformer 的 GPT-1(仅 1.1 亿参数),后于 2019 年提出 GPT-2 在 Bert 的模式上做了 改进,以让其更适合生成式的任务。尽管 GPT-2 基准成绩不算优秀,但 Bert 与后续 GPT-2 等模型的推出统一了自然语言模型(NLP)的研究范式(以预训练的方式学习语言学特征, 大幅简化了过 NLP 繁琐的研究种类)。Transformer 作为特征提取器效果好于 CNN、LSTM 等模型,让 AI 首次能在语言任务的部分场景中追平人类。
——(2)大模型参数爆炸式增长,GPT 的自回归+Prompting 方法表现更优。产业 界与学术界继续沿着 Transformer 的道路前进,但开始尝试不同于 Bert 的其他 Transformer 架构,通过预训练无监督学习的方法不断增加模型大小成为这一时段的主流。2020 年, OpenAI 发布 1750 亿参数的 GPT-3,较前代参数规模扩大超 100 倍,是当时最大参数的 预训练大模型,其他互联网巨头也不断尝试增加模型体积以获得更好的效果。相比于Bert, GPT-3 的自回归+Prompting 在产品化能力上展现出两个优点:1)Fine-tuning 对于小公 司更难部署,从产品化的角度上更加困难;2)Prompting 的方法更符合我们对以人类的 方式使用 AI 的愿望。谷歌等巨头在这一阶段也意识到 Prompting 方法的重要性,逐渐 开始转向,此后 ChatGPT 的成功印证了这一点。
——(3)2023 年开启多模态时代,GPT-4V 多模态能力强化,GPTs 打造应用商店 雏形,推动应用端百花齐放。2023 年 3 月,OpenAI 正式推出 GPT-4 多模态大语言模型, 支持图像+文本输入,文本形式输出,相比前两代 GPT-3 和 GPT3.5 分别用于创造 Dall-E 和 ChatGPT,GPT-4 提升了强大的识图能力;文字输入限制提升至 2.5 万字;回答准确性 显著提高;能够生成歌词、创意文本,实现风格变化。2023年6月,OpenAI发布了GPT-4V, 这标志着 AI 多模态能力的重大进展,从处理纯文字到结合图像,GPT-4V 展现了其关键的 突破。11 月 6 日,OpenAI 在首次开发者大会 DevDay 上发布了 GPT-4 Turbo(主要更新为将之前截至 2022 年的知识库更新到 2023 年 4 月,以及支持最大 128K Token 的输入); 此外,OpenAI 在现有插件开发的基础上升级为 GPTs 插件商店,其类似苹果应用商店, 将 ChatGPT 可以嵌入每一个应用。OpenAI 还提供了专门负责创建插件的 AI 让用户使用 自然语言创建自定义GPT。我们认为,GPTs插件商店有望快速推动终端应用爆发式增长, 助力多模态的迭代和渗透。
其他巨头进展:谷歌、Meta 持续推进“多模态”、“轻量化”进程,形成 OpenAI、 谷歌双巨头+Meta 开源追赶格局;高通在硬件侧提前布局迎接终端 AI 时代来临。
——谷歌:发布 Gemini 大模型,“端到端”多模态初现端倪。2023 年 3 月,谷歌推 出 palm-E(5620 亿参数),为目前最大规模的视觉语言多模态模型,其输入包括视觉、连 续状态估计和文本,并可执行包括机器人操作、视觉问题解答在内的具体问题,此外还具 备泛化能力,可以在未训练的情况下推演执行各种任务,同时谷歌宣布其 Workspace 中 的 Gmail 和 Docs 也将集成 AI 助手;2023 年 12 月谷歌推出下一代大模型 Gemini。Gemini为大语言模型集合,支持多种功能,包括聊天机器人、生成原始文本、根据用户的要求总 结文本等,谷歌计划通过其谷歌云的 Vertex AI 服务向企业提供 Gemini 模型。
——Meta:开源路线引领者,Llama2 或将成为“移动 AI 时代的安卓”。头部厂商闭 源模型后,落后一到两个身位的公司(Meta、Amazon、NVIDIA 等)可能会选择开源路 线,寄希望通过社区的力量加速迭代。2023 年 7 月,Meta 发布了其最新开源可商用版本 Llama2 大语言模型(包括 70、130、700 亿参数量)。模型层面的最大亮点在于开源了与 GPT-3.5 相同的 SFT 与 RLHF(人类反馈强化学习)的步骤,成为目前开源类别中最接近 GPT-3.5 的大语言模型。从 Meta 论文中公布的数据指标,Llama2 70B 在部分指标上甚至 追平了 GPT-3.5,大部分指标超过 GPT-3,成为如今性能较为领先的开源模型之一。总体 来看,Meta 的 Llama2 论文向业内拆解了 SFT 以及 RLHF 等的技术过程,并给出可以直 接使用的版本,我们认为这将会统一目前开源领域的研究框架,加速开源模型迭代速度。
——高通:软硬件一体化推进,AP 厂商成为端侧 AI 时代核心“推手”。高通是终端 侧 AI 领导者,对 AI 的研究最早可追溯到 2007 年,目前能够为 AI 软硬件进行全栈 AI 研 究和优化。1)在软件端,高通软件栈全面支持主流 AI 框架,持续模型优化使其更适合在 端侧运行。高通 AI 软件栈全面支持主流 AI框架包括 TensorFlow、PyTorch、ONNX、Keras, 专注于 AI 模型效率研究以提高能效。2023 世界人工智能大会上,高通展示了将 AIGC 模 型 Stable Diffusion 放在搭载骁龙 8 Gen2 的手机上运行,15 秒内执行了 20 步推理,并生 成了一张 512x512 像素的图像,且图像效果与云端处理水平接近。此外,高通还带来了手 机上的 ControlNet 终端侧演示(15 亿参数),只用不到 12 秒即可在移动终端上生成 AI 图 像,无需访问任何云端。2)在硬件端,Hexagon NPU 不断演进,已能够支持多模态生 成式 AI 模型,是高通 AI 引擎的关键。高通 AI 引擎由多个软硬件组件构成,其中 Hexagon NPU 是处理 AI 大模型的关键,最早用于数字信号处理(DSP)。2015 年,骁龙 820 集成了 首个专门面向移动平台的高通 AI 引擎 Hexagon 680,支持图像、音频和传感器的运算; 2018 年,高通在骁龙 855 中为 Hexagon 增加了张量加速器;2019 年,骁龙 865 上扩展 了终端侧 AI 用例,包含 AI 图片、AI 视频、AI 语音和“Always-on”传感器中枢;2022 年, 骁龙 8 Gen2 搭载的 Hexagon NPU 已能够高效端侧运行 Stable Diffusion;2023 年,骁龙 8 Gen3 搭载的 Hexagon NPU 大幅升级,性能、能效分别提升 90%/40%,支持多模态大 模型(最高 100 以参数),能够高速运行 Stable Diffusion 和 ControlNet。
重构智能终端产品定义:产业曲线两端率先发力
纵向维度:参考过去十余年智能手机发展历程,以高通、联发科、苹果 A 系列芯片为 代表的硬件先行,在算力支持的背景下,软件应用端开始爆炸式成长。从 2023 年年初高 通提出混合 AI 的概念以来,产业各个环节生态都在进一步发展,目前手机硬件端,高通、 联发科都已经发布能运行 100 亿参数级别大模型的旗舰 SoC 芯片。PC 硬件端,英特尔正 式发布首次内置神经网络加速单元(NPU)的 Meteor Lake 处理器;高通预计 2024 年发 布骁龙 X Elite 处理器能够运行 130 亿参数大模型;AMD 年内推出了多款搭载专用 AI 硬 件“AMD Ryzen AI”的 7000 系列处理器,且预计明年年初将发布下一代产品,AI 能力将 再度增强。目前,硬件“从 0 到 1”的过程已基本完成,我们预计未来随软硬件适配能力 提升,产品持续优化,端侧 AI 渗透率将持续提升,相关产品有望快速放量。手机方面, 我们预计到 2026 年百亿参数内的大模型落地智能手机的渗透率有望达 40%+。PC 方面,联想预计 2024 年 AI PC 渗透率会在个位数,2025 年提升到双位数,英特尔目标在 2024-25 两年内 AI PC 累积出货量达到 1 亿台。
横向维度:我们认为,终端 AI 时代,核心受益环节参考消费电子产业链“微笑曲线”, 其中硬件算力端(SoC、存储)、终端品牌将有望核心受益,零组件及组装中部分环节如传 感器、电池、散热结构件等部分受益。我们建议沿着“AI+产品”(出货量提升)到“产 品 AI 化”(量价齐升)的逻辑,关注四个方向。
(1)算力本身及配套的变化:包括主控 SoC 芯片算力提升、存储升级(大容量、高 速传输)、封装升级(Chiplet)等。 ——SoC:增加 NPU 单元提升 AI 算力。传统手机、PC 芯片普遍是以 CPU/GPU/DSP 为核心的传统计算架构,但这一架构难以支持 AI 海量数据计算,终端若要提升 AI 能力需 要加入 NPU 单元保证运算能力,因此单芯片价值量将有所提升。 ——存储:容量、传输速率均需提升。运行大模型涉及大量数据的处理以及应用的调 度,因此所需的内存容量显著增加,例如典型智能手机内存为 8GB,而终端运行几十亿参 数大模型需要 16GB 内存;此外,数据在 CPU、NPU、内存间的快速访问对 AI 应用使用 体验至关重要,如 PC 上 DDR5、手机上 LPDDR5X 等高阶 DRAM 产品渗透率有望快速提 升,带动模组端价值量提升。
——封测:Chiplet 有望受益算力快速增长。终端上 CPU+GPU+NPU 异构计算能力 将配合大模型持续提升,我们认为各运算单元由于运算任务和运算量要求不同,未来制程 或存在差异,例如 NPU 作为 AI 的核心处理单元,制程可能更先进,从而带动封测端如 Chiplet 技术的快速渗透,带动封测端价值量提升。
AI 手机:拓展人机交互场景边界
AI手机是一个软件定义硬件的过程,AI模型落地智能手机有望为近年应用创新乏力、 性能过剩的智能手机行业带来下一轮创新原动力。 我们预计,未来 2-3 年内智能手机端侧 AI 大模型参数或达 200 亿规模,4-5 年则有望 达到 300 亿规模,千亿参数大模型则有较高实现难度(结合云端算力,本地千亿大模型的 必要性也不足);我们预计 3 年维度下百亿参数内的大模型落地智能手机的渗透率有望达 40%+,考虑到智能手机端侧大模型需要内存、主芯片等硬件支撑,而低端手机 BOM 难以 支撑,参考智能手机出货价格分布情况,我们预计百亿参数级别大模型主要落地于 2500 元以上智能手机。
应用端:大模型落地强化软硬结合趋势,智能化应用再升级 应用端:近年来智能手机持续强化 AI 应用,我们看好大模型落地智能手机为消费者 带来使用体验升级。 ——2018 年以来,各主流终端厂商的旗舰机型均引入各类 AI 应用,在图像(美颜、 场景识别、相册分类、背景虚化、人脸识别、文字识别)、语音(语音助手、语音搜索) 等领域已为用户提供了便捷的使用体验。
——2023 年以来,各类大模型开始规模化应用于智能手机,进一步强化了智能手机 在图文等领域的处理能力,拓展了人机交互场景,能够更灵活的响应用户需求。目前智能 手机端侧AI实际跑通且应用的大模型参数仍未过100亿,如小米14(60亿参数)、vivo X100 (70 亿参数)、谷歌 Pixel 8 Pro(搭载 Gemini Nano 大模型,针对低内存和高内存设备参 数量分别为 18 亿和 32.5 亿),因此在使用体验上短期仍聚焦于相对简单的图文处理和语 音助手,在部分算力要求较高的场景下使用体验仍有待提高。为了平衡内存、执行速度、 功耗和成本等问题,端云协同的混合 AI 是手机厂商部署大模型时的普遍选择。其中,云端 用于需要大算力、大参数模型的场景;端侧部署则主要用于运行数据安全性高、需要实时 反馈的轻量化问题,且在网络条件较差时更具备可行性。
——手机端侧 AI 体验正快速迭代,有望激发智能手机的焕新时代。我们看好智能手 机在大模型加持下向 2.0 时代迈进,在智能手机传统硬件创新趋缓的背景下,由 AI 带来 的软硬件升级趋势有望成为下一轮智能手机创新的原动力。 2023 年 2 月,搭载骁龙 8 Gen2 的安卓手机第一次在手机上运行超过 10 亿参数的文 生图大模型 Stable Diffusion,以不到 15 秒的时间执行 20 步推理,生成了一张 512×512 像素的图像。2023 年 10 月,高通在 2023 骁龙技术峰会上用搭载了骁龙 8 Gen3 的手机 运行相同的 Stable Diffusion 大模型,仅以 0.6 秒的时间便在本地生成了一张图像。后续 随硬件端算力升级,我们预计文生视频等应用有望落地手机,进一步丰富用户体验。
2023 年 10 月谷歌发布的 Pixel 8 Pro 是首款搭载 Gemini Nano 大模型的智能手机, 该手机可支持录音概要总结、智能回复、照片污渍智能去除等功能。目前 Gemini Nano 已 开放给所有 Android 14 开发者,开发者可以以 AICore 的形式,在手机系统中调用 Gemini 的能力,用在各自 App 中尝试 AI 功能,料后续调用 AI 功能的 APP 或百花齐放。
硬件端:端侧算力落地需要硬件支持,主控 SoC、内存、散热核心升级 核心升级之 SoC 算力持续强化为手机 AI 使用体验提升提供底层支撑,高通、联发科均在产品迭代上 进行重点布局。以往的手机芯片普遍以 CPU/GPU/DSP 为核心的传统计算架构,但这一架 构难以支持 AI 海量数据计算。2017 年 9 月 2 日,华为率先发布全球首款人工智能移动计 算平台麒麟 970,集成人工智能专用 NPU 神经网络单元,率先将 AI 芯片落地智能手机。 同年9月13日,苹果发布iPhoneX,使用自研的手机芯片A11,其中内置名为Neural Engine 的神经网络处理单元,同样着力提升 AI 应用体验。近年来,在芯片算力升级过程中,价格 亦持续提升,以高通骁龙为例,骁龙 8 Gen1 的 AI 算力达 9 INT8 TOPS(每秒万亿次操作); 骁龙 8 Gen2 AI 算力提升了 4.35 倍;骁龙 8 Gen3 的 NPU 算力进一步提升 98%。 TechInsights 估算骁龙 8 Gen1 价格约 120-130 美元(2021 年),8 Gen2 价格约 160 美 元(2022 年),8 Gen3 价格约 200+美元(2023 年)。由于芯片平台迭代周期约为 2 年, 骁龙 8 Gen3 主要基于 2022 年大模型开发。我们认为,“AI 原生 SoC”时代有望于 2024 年中推出的骁龙 8 Gen4 开启。
2023 年,高通骁龙 8 Gen3 全新旗舰移动平台,联发科发布天玑 9300 旗舰 5G 生成 式 AI 移动芯片,均在 AI 方面进行强化。其中,骁龙 8 Gen3 重点在于协调调度芯片内部 各个部件,实现最优的性能表现;而天玑 9300 则侧重生成式 AI,通过 AI 大语言模型为用 户带来全新的 AI 体验。
分别来看: ——高通骁龙 8 Gen3:高通骁龙 8 Gen3 发布于 2023 年 10 月 25 日,高通将 Hexagon DSP 升级为 Hexagon NPU,可集合 Kryo GPU、Adreno GPU、Hexagon DSP、Spectra ISP、标量/矢量/张量加速器、传感器中枢等各个单元的力量,这也是高通首度在 NPU 中加入支持多模态生成式 AI 模型的 AI 引擎,该引擎支持 LLM(大语言模型)、LVM(语言 视觉模型)和 ASR(自动语音识别)模型,端侧最大支持 100 亿参数的模型(LLM 方面, 以 Meta 70 亿参数的 Llama 2 模型为例,骁龙 8 Gen 3 支持每秒 20token 的表现)。同时, NPU 也进一步提高了各大传感器调用用户数据的能力,比如针对音频、动作传感器等需要 长时间待机的 AI 使用场景,骁龙 8 Gen3 专门提供了 2个低功耗的 NPU 单元。此外,8 Gen3 还在内存和 NPU 之间建立了直连通道,进一步提高运算效率。
——联发科天玑 9300:2023 年 11 月,联发科发布天玑 9300 旗舰 5G 生成式 AI 移 动芯片,其搭载的第七代 AI 处理器 APU790 内置了硬件级的生成式 AI 引擎,可实现更加 高速且安全的边缘 AI 计算,深度适配 Transformer 模型,处理速度是上一代的 8 倍(1 秒 内可生成图片),支持最高可达 330 亿参数的 AI 大语言模型(实际应用上,vivo X100 则 搭载 70 亿端侧模型)。生态方面,联发科 NeuroPilot AI 平台构建了丰富的 AI 生态,支持 Android、Meta Llama 2、百度文心一言、百川大模型等前沿主流 AI 大模型,助力开发者 在端侧快速且高效地部署多模态生成式 AI 应用,为用户提供文字、图像、音乐等终端侧生 成式 AI 创新体验。
核心升级之存储
AI 手机需要更大容量、更高频率和更大内存带宽。目前典型的智能手机搭载 8GB 内 存,支持端侧 AI 大模型功能的智能手机则需要更大容量的内存。考虑到大模型内存占用+ 安卓系统运行内存占用+其他常规 APP 运行内存占用,我们认为一个搭载 100 亿参数大模 型的手机约需要14-16GB内存;搭载200亿参数大模型的智能手机约需要20-24GB内存。 如 vivo X100 系列手机(搭载 70 亿参数大模型,具有语言理解、文本创作能力,最 快出词 20+字/秒,内存占用 3.9GB),基础款内存由前代的 8GB 升级为 12GB 起步,高配 款的内存则由前代的 12GB 升级为 16GB。此外,AI 手机存储也需要更大的带宽和传输速 率,如骁龙 8 Gen3 支持 LPDDR5X,频率从前代的 4.2GHz 提高到了 4.8GHz,内存带宽 则从 33.5 GB/s 提升到了 77GB/s;天玑 9300 则率先支持 LPDDR5T 9600Mbps 内存, 以实现更快的智能手机内存传输速率。
其他升级之散热、传感器
此外,考虑到智能手机有望基于 AI 大模型采集、分析、传输更多数据,我们预计需 要匹配更好的散热特性,光学、声学等方面亦有升级趋势。 ——散热:高阶安卓手机主流散热方案以超薄 VC 均热板为主、辅以石墨及石墨烯, 中阶机型则是以导热管结合石墨散热方案为主。随 AI 手机算力提升散热需求或同步成长, 据模切之家测算,一部手机所需的人工石墨膜价值量约 2.5 元;导热硅胶 ASP 约 2-5 元;石墨烯膜 ASP 约 100 元以上;参考热设计微信公众号,我们测算一部智能手机所需的均 热板价格约 10-15 元。
——光学:摄像头是人机视觉交互入口,大模型加持下,手机摄像头有望从被动调用 往主动感知转变,即摄像头有望主动感知用户所处环境及用户手势意图等,且长时间的低 功耗后台运行有望成为趋势。除摄像头外,我们预计 ISP 亦有望强化 AI 特性,从而实现 对捕捉到的画面色彩、纹理、噪点以及亮度进行实时逐帧优化,使得画面更明亮且细节更 丰富;且有望提升防抖运算速度以实现运动场景和暗光环境下快速捕捉到高清晰度的图像。 ——声学:语音输入是人机交互的关键接口,我们预计后续智能手机或持续升级麦克 风收音质量,强化用户意图理解,增强语音交互体验。如据 technave 援引产业链消息, Apple 已在 2023 年第三季度对 Siri 团队进行重组,以整合 AIGC 功能和大型语言模型, iPhone 16 麦克风有望迎来升级。
品牌端:品牌厂商力争流量入口,百亿参数大模型渗透率快速提升
我们认为,智能手机厂商强化“AI+硬件”趋势下的话语权是供给侧的核心驱动,AI 赋能有望支撑品牌商新一轮份额竞争。我们认为,智能手机品牌厂商有较强动力抢占 AI 时代的流量入口,从而大力推进端侧 AI 发展(而非完全采用云端 AI,把流量入口交由 ChatGPT 等大模型),后续智能手机端侧 AI 算力有望持续提高,且与系统、应用的融合度 有望持续增强。此过程中,大模型轻量化能力领先、本地化部署成熟的厂商有望占据先机。
——大模型轻量化:轻量化方法旨在在不降低模型性能的前提下,减小模型的计算复 杂度和存储需求,从而提高模型在低资源设备和低功耗环境下的部署效率。主要包括:模 型压缩(通过对模型结构进行优化,减小模型的参数量和计算复杂度,从而降低模型的存 储需求)、模型裁剪(通过对模型结构进行简化,去除冗余的参数和计算,从而减小模型 的计算复杂度)、模型量化(通过对模型参数进行量化,降低模型的数值范围,从而减小 模型的计算复杂度,在手机端,高通已经将 FP32 模型量化压缩到 INT4 模型)等方式。 我们预计后续各家厂商有望通过调整模型结构和参数大小,适配各类芯片在内存和算力上 的特点,达到功耗、推理速度和生成效果的平衡。
——大模型本地部署:所谓本地化部署,主要是指将大模型融入系统,打通各个应用 之间的互动,使得应用程序的的运行更为高效、稳定,考虑到目前部分手机的 AI 体验仍难 以打通第三方 APP,我们认为后续能够从系统层面进行 AI 赋能的终端品牌厂商有望实现 差异化竞争。
AI PC:生产力新升级,与换机周期共振迎加速
AI+PC 助力换机周期加速来临
AI PC 时代将至,大模型应用、主核、软件架构交替升级有望重新演绎“Tick Tock” 发展模式,进而加速 PC 换机节奏。CPU 等主核芯片是 PC 产品的性能核心,其升级迭代 很大程度决定了 PC 的换机节奏。复盘过往 CPU 产品发展历程,因工艺难度急剧攀升, 制程升级趋缓下,主核硬件的迭代放缓:以 Intel 为例,原本公司制定的“Tick Tock”战 略旨在通过制程与架构的隔年交替升级来维持 CPU 产品的稳步更新,然而其先进制程研 发不及预期,导致“Tick Tock”战略因“瘸腿”而逐步难以持续,只能通过架构优化的“挤 牙膏”式升级,一定程度拉长了 PC 换机周期。而在 AI PC 时代,我们认为 AI 大模型应用、 主核硬件、软件架构三者相互促进共同发展,Intel“Tick Tock”式发展模式有望得到重新 演绎,进而有望驱动 PC 换机节奏加速。在大模型应用百花齐放背景下,一方面因算力需 求快速提升,需在主核上新加入 NPU 等 AI 芯片以满足大模型运算要求,是硬件端升级方 向;另一方面 AI 大模型应用衍生出高效的并行处理、资源调度、用户交互、安全隐私保护 等需求,同样需要架构上进行对应升级。
另一方面,微软新一代操作系统也即将到来,同样强调软件应用与硬件端的协同配合。 结合 Tom's Hardware 和 Windows central 等媒体网站新闻,微软预计在 2024 年下半年推 出新一代 Windows 系统(可能为 Windows 12),新系统将进一步专注于 AI 功能的用户体 验,增强对于原生 AI 应用的支持,如更高级的 Copilot、视频及游戏增强、AI 字幕、3D 图像生成等。另一方面,新系统也将提升对于 PC 硬件的配备要求,如提高内存门槛(参 考 Win 11,其最低内存配置提高到了 4GB,而 Win 12 有望进一步提升要求 8GB)。
我们预计 AI PC 将成为未来 PC 市场的主要品类,而且 2024 年将开启 AI PC 普及进 程,Canalys 预计至 2027 年全球渗透率将达到 60%。当前产业玩家对于 AI PC 渗透节奏 观点不一,综合其观点我们认为 2024 年将是 AI PC 普及应用元年,对应实现“从 1 到 10” 的产业阶段,2025 年 AI PC 将加速铺开:根据 Canalys 统计及预测,伴随着 x86 阵营的 主芯片厂商更新落地其处理器产品,AI PC 将在 2024 下半年迎来快速落地,至 2024 年第四季度 AI PC 的渗透率将超过 25%,而 2027 年市场渗透率将达到 60%,年出货量超过 1.75 亿台。
行业基调:3 年换机潮将至,有望迎来新一轮需求释放,叠加操作系统升级及 AI 应用 普及化,预计 2024 年出货量同比增速~8%。2021 年,因疫情而出现 PC 消费阶段峰值, 综合考虑 3~5 年的换机周期,我们认为 2024/2025 年有望来临新一轮换机潮,此外操作系 统升级以及 AI 应用普及化也会进一步拉动需求释放:2023 年 5 月,微软宣布其将在 2025 年 10 月 14 日终止对 Windows 10 操作系统的支持服务,而根据 Statcounter 数据,2023 年 9月Windows 10在全球PC操作系统中占比为 71.62%;2023年以来,ChatGPT、Copilot 等 AI 应用百花齐放,AI 的普及化应用也会拉动消费者对于性能更强的电脑需求。Canalys 预测,2024 年全球 PC 出货量将同比增长 8%达到 2.67 亿台。在整体复苏的产业背景之 下,AI PC 作为 PC“新物种”,有望顺势加速渗透。
边际变化:终端需求复苏+存货去化基本完成,2023 下半年以来 ,PC 市场已呈现向 好趋势。PC 为互联网时代的重要智能化设备。据 IDC 及 Canalys 数据,2022 年全球/中 国市场的 PC 出货量分别为 2.92 亿台和 0.49 亿台,对应广阔的电子元器件需求空间。在 2021 年疫情催化线上办公/学习需求出现阶段峰值后,2022~2023H1 PC 市场前置的换机 需求已释放完毕,且受到宏观复苏节奏缓慢+渠道库存积压等负面影响,市场整体承压, 然边际来看 23Q2 已有一定环比改善趋势:根据 IDC 数据,2023Q3 全球 PC 出货量达 6820 万台,环比+10.7%,同比尽管仍下降(-7.6%)但相较于 23Q1(-29%)和 23Q2(-13%) 已有明显收窄。库存端,1)PC 品牌厂视角,以联想为例,其库存水平自 22Q2 起连续四 个季度下降,当前(与 2020 年相近)已为健康水平,而惠普/戴尔/华硕/宏碁等其他品牌 厂商的库存同样也有明显优化;2)渠道视角,根据 Canalys 机构调研统计(2023 年 6 月), 渠道合作商普遍反馈当前库存水平相较 2023 年初已有明显下降,有 41%的渠道商表示其 库存不足一周,渠道库存水平在 Q2 进一步得到优化。综合来看,需求边际改善叠加库存 去化后,产业厂商可轻装上阵,23H2 全球 PC 市场已有复苏态势。
AI PC:端侧大模型的优秀载体,有望率先落地
核心观点:PC 是兼具性能、便携性、续航与工作使用习惯的智慧终端,我们认为 PC 是端侧大模型的优秀载体,因此 AI PC 的加速普及在 AIGC 时代是必然趋势。从落地必要 性上,我们认为 AI PC 解决的痛点是云端大模型存在的推理成本较高、隐私存在泄露可能、 依赖网络等问题。从消费者实用角度,AI PC 可结合私有云、本地机房等配套设施,进而 展现出极强的生产力属性,叠加其高度个性化能力,将面向 PC 消费的基本盘如办公、高 生产力场景(根据亿欧智库,2022 年合计占比 75%)率先铺开应用,实现对传统 PC 产 品的替代。综合来看,我们看好 2024/25 年 AI PC 迎来快速起量,逐步成为 PC 市场主流 选择。
——相较于云端大模型:解决云端大模型时延、安全性及成本问题是 AI 落地 PC 端 的核心考量。AI PC 将大模型进行本地化搭载,而 AI PC 上的终端大模型区别于目前如 ChatGPT 等云端大模型应用,核心不同之处是无需联网上传本地数据即可发挥大模型的功 能,而我们认为低时延、保护隐私、无需联网是 AI PC 在大模型时代的立身之本,具体来 看,AI PC 上终端大模型相比于云端大模型的优势在于:(1)低延迟,尤其是与内容创建 和游戏相关的低延迟,AI PC 通过本地化模型运行直接反馈输出结果,避免了数据上传过 程中的时延,也减少了网络带宽使用量;(2)隐私保护,主要涉及工作场所生产力和网络 安全,AI PC 处理数据在本地完成,减少数据传输到云端的需求,增强用户隐私的同时避 免了信息泄露风险;(3)无需联网,AI PC 的大模型应用在没有网络连接的情况下仍能运 行,使用场景进一步拓宽。但另一方面需注意的是,AI PC 上的大模型应用同样也面临着 如计算能力有限(因本地硬件性能固定且可能有能耗限制)、更新和维护相对不及时等缺 陷,我们认为 AI PC 上的终端大模型与 ChatGPT 类云端大模型将在未来相互协助实现互 补,如高通所描绘的“混合 AI 架构中”,终端 AI 可作为核心运行大部分不太复杂的推理任 务,云端 AI 则用于分流处理终端无法充分执行的任务。
——相较传统 PC:更强的生产力属性、个性化服务能力,有望推动 AI PC 成为主流。 我们认为 AI PC 具备更强的生产力属性,而办公及生产力场景又是 PC 市场最主要的需求 来源,根据亿欧智库数据统计,以中国市场为例,2022 年 75%的 PC 市场来源于办公场 景以及高生产力场景,因而 AI PC 将加速替换传统 PC。相较于传统 PC 而言,AI PC 用 于强大的 AI 能力,有助于提升用户生产效率、为用户提供个性化服务、辅助创造性工作、 提升系统安全,我们将 AI PC 的功能具体归纳为: (1)个性化服务:AI PC 可根据用户的工作习惯和偏好进行自我调整,为用户提供更 便捷灵活的操作体验。例如进行定制化的内容推荐、功能串联、界面布局,或者可以通过 学习用户的工作时间表相应地优化系统性能和资源分配。
(2)生产力工具:例如进行自动化数据分析和智能日程安排,提升用户工作效率, 减少重复性劳动,或者协助用户进行实时语言翻译和提供无障碍功能。 (3)创造性工作:AI PC 可作为内容与任务创建工具,辅助用户进行文字、图形、音 乐、视频等多元领域的内容创作。 (4)安全和异常检测:例如通过 AI 算法识别并警告任何异常或可疑的活动,如未授 权的数据访问或系统入侵尝试。 (5)对本地化游戏、科研工作等更好的性能支持:游戏方面,在离线游戏中通过 AI PC 的性能支持游戏内 NPC 获得更强大、灵活的表现;科研方面,内置的大模型软件以及更 强大的硬件配置使得如本地化机器学习模型的训练和测试成为可能。
应用端:软件迭出吸引消费者,有望转化为对 AI PC 硬件消费动力
微软、谷歌接连发布定位生产力的 PC 端 AI 工具,强大的软件应用有望完成市场教 育进而转化成 AI PC 产品销售。大模型应用软件百花齐放且处于快速迭代进程之中,AI 技术已向用户展露出广阔的应用潜力,而微软、谷歌发布的 AI 办公软件更直接将其转化为 明确的生产力工具:2023 年 9 月,微软宣布在新版本 Windows11 上正式推出其 AIGC 服 务 Copilot,在桌面、Office 软件等多界面中均可便捷调用,意味着背靠 Windows 这一全 球应用最为广泛的操作系统,AIGC 服务有望真正实现用户群体的大规模渗透,而可支持 AI 应用的 PC 设备届时将受益发展。谷歌 I/O 大会上,同样将升级版 Bard 整合到自家办 公软件“全家桶”中,包括 Gmail、谷歌 Docs、Sheets 以及 Slides,创造了名为 Duet AI 的办公助手。我们认为,现阶段具备生产力属性、主要基于云端大模型技术的轻量级软件 应用尽管不会显著驱动 PC 换机需求(传统 PC 也可使用),但有望首先完成市场科普教育, 使用户认识到 AI 技术突出的性能优势,进而转化出对于更具隐私保护、更定制化、反应速 度更快的个人或者终端大模型需求,从“云端通用 AI”过渡到“终端定制化 AI”的需求将 最终转为为消费者对于 AI PC 的购买意愿。
硬件端:处理芯片率先升级,存储等配套芯片亦有升级需求
核心升级之主控芯片 XPU,异构混合架构有望成为 AI PC 时代主流方案 AI PC 时代首先要求主控芯片性能升级,2023 年英特尔、AMD、高通等巨头的产品 布局已就位,其中 XPU 异构方案是主流选择。主控芯片是决定 PC 性能的关键核心,在 AI PC 时代主控芯片的升级更是“首当其冲”,其中的常见方案是将 NPU 等 AI 芯片内置来 提升处理器的 AI 运作性能(即 XPU 异构混合架构),如英特尔、AMD、高通等龙头的相 关产品已发布,我们预计相关终端产品将在 2024 年渐次落位,具体来看:
(1)英特尔:2023 年 12 月 15 日,英特尔正式发布其基于 Meteor Lake 架构的第 一代英特尔酷睿 Ultra 处理器,该处理器凭借多级 XPU 设计拥有高达 34TOPS 的 AI 算力,支持 BERT、LLaMA2、GLM 2、GLM 3 等大模型运作,且具备优秀能耗表现,相 关产品将在 2023 年底及 2024 年初搭载在 30+家品牌厂商的 230 款产品实现落地,12 月 16 日已有戴尔新款灵越 13 Pro 笔记本电脑发布,以“AI PC”为产品标签。 (2)AMD:2023 年初 AMD 推出首款搭载专用 AI 硬件“AMD Ryzen AI” 的处理 器 Ryzen 7040,12 月 7 日 AMD 再次发布 AMD Ryzen 8040 系列处理器,其 NPU AI 性 能算力从上一代的10TOPS提升到16TOPS,处理Llama 2及视觉大模型的性能提升40%, 相关产品将在 2024Q1 于宏碁、戴尔、惠普、联想等品牌厂商产品上实现出货。
(3)高通:2023 年 10 月,高通正式发布骁龙®X Elite 平台,采用定制的集成高通 Oryon™ CPU,专为 AI 打造,支持在终端侧运行超过 130 亿参数的大模型,ODM 厂商预 计高通将于 2024 年中推出搭载骁龙 X Elite 的 PC。 此外,如苹果也在其 M3 系列产品(2023 年 10 月推出)上也引入了增强型神经网络 引擎来提升 AI/ML 运行效率。综合来看,头部主芯片厂商均已完成了具备较强 AI 性能的 主控芯片产品部署,为 AI PC 终端产品的落地提供先决条件。
核心升级之存储等配套芯片
AI PC 也将带动存储、PMIC、DCDC 等配套芯片也将迎来升级需求。PC 上 AI 功能 的实现除了要求主芯片需要拥有强大性能之外,整个系统的高效运转也对于周边配套硬件 提出了更高的性能要求,如存储、PMIC 等配套芯片也将迎来升级机遇。具体来看,(1) DRAM:终端大模型涉及大量数据的处理以及应用的调度,对于 DRAM 存储芯片的进阶要 求包括高容量、高速、高带宽等,因此一方面有望加速 DDR5 渗透率提升,另一方面从规 格上看,参考当前 PC 端运行 LLaMA 的内存大小要求(7B/13B/30B/65B 参数规模约分别 对应 8/16/32/64GB,Hardware-corner 网站测算),考虑未来 AI PC 有望对终端大模型进 行精简及优化,我们预计 AI PC 对于内存的配套需求可能为 16GB 及 32GB 甚至更高(。2) NAND:为使得 AI PC 具备全面定制化能力,更大的闪存 NAND 也有助于容纳更大规模的 个人数据库,例如使用 1TB 或更大空间的 NVMe SSD。(2)PMIC:AI 功能运转会使得系 统功耗提升,因而需求更优秀的能效控制,我们认为 PMIC 的需求也会提升。(3)DCDC: 为提升AI性能,AI PC会在处理器芯片内集成NPU等芯片或者在主板上增加独立AI芯片, 我们认为供电需求增加将驱动 PC 上的 DCDC 价值量提升。
功耗提升 PC 散热要求增长,同样可关注散热领域如结构件、碳纤维等的配套升级机 遇。运转大模型过程中处理器、存储等芯片的持续运转将产生额外的功耗和热量,为了防 止系统过热导致的性能下降或者器件损耗,更好的电脑散热也是 AI PC 的发展重点,而改 进优化的方向具体包括更好的散热结构设计、改用更好的散热材料等。(1)散热结构设计: 涉及散热风道的结构设计、散热风扇/热管/均热板的应用、高发热量元件的分散布局设计 等方面内容,我们认为 AI PC 时代将更加考验相关制造商的电脑设计与制造能力。(2)应 用散热性能更好的材料:例如采用热导性更强的碳纤维材料作为笔记本机身等,当前如联 想 ThinkPad X1 Nano 等高端产品已采用碳纤维材料。
品牌端:各品牌厂商加速产品,强化“Wintel”体系下的 AI 话语权
AI PC 时代用户操作逻辑变化带来产业生态变革,品牌厂商产业话语权有望提升,聚 焦场景需求提供软硬件一体的混合交付体验。在传统 PC 时代,用户以操作系统为基础直接在界面操作与管理各类应用,而 PC 品牌厂商在操作系统与应用这两个环节的参与度均 相对有限(因 Windows 系统有极强话语权,厂商自主空间有限;而相比之下手机领域品 牌厂商一般基于开源的 Android 系统深度定制 OS 系统,自主权更强)。因而在传统 PC 时 代,电脑品牌厂商更多定位是硬件集成商,品牌间差异主要靠硬件层次的产品定义(性能、 成本、设计等)来实现。而在 AI PC 时代,用户的 PC 使用方式将迎来简化与变革,参考 IDC 在 2023 年发布的《AI PC 产业(中国)白皮书》的展望,AI PC 上个人智能体(智能 AI 助手)将成为 PC 操作的第一入口,在大模型与应用生态的支持下,准确理解用户指令, 通过跨应用调度完成相对复杂的任务进而形成反馈。在此背景下,AI PC 时代产业链生态 有望迎来重塑,上述“智能 AI 助手”环节将是电脑品牌厂商有望深度参与、开展差异化 竞争的重要领域。综合来看,我们认为 AI PC 产品上,品牌厂商将以场景需求为基础面向 用户整合产业资源,提供软硬件一体的混合交付体验,而品牌厂对需求的把握将反馈上游 软硬件开发与协同,我们看好 PC 品牌厂商产业话语权在 AI PC 时代的进一步凸显。
主流品牌厂商纷纷加入 AI 竞赛,产品有望于 2024-25 年集中推出。目前如联想、惠 普、戴尔等头部玩家均加快相关产品的布局以获 AI PC 时代卡位优势:(1)联想:早在 2018 年就推出智能化办公 PC(本质是 AI PC 的雏形),将 AI 元素融入到其联想 Yoga、 Legion、ThinkBook、和商用 ThinkPad 等几乎全系列产品线,2023 年 10 月公司更进一 步聚焦 AI PC 概念,于其举办的创新科技大会上展示其 AI PC 产品以及公司在大模型领域 的业务合作与技术布局,公司规划 AI PC 产品将在 2024 推出。(2)宏碁:公司已与英特 尔等 CPU 厂商展开合作,相关 AI 笔记本方案会在 2024-2025 年陆续推出。(3)惠普:目前正在研发支持 AI 能力的 PC,惠普预计新产品最早将在 2024 年推出。且与所有关键软 件服务商和芯片供应商合作,将重新设计 PC 的架构,(4)戴尔:产品落地领先,2023 年 12 月推出灵越 13 Pro 笔记本电脑,搭载 Intel 酷睿 Ultra 芯片,以“AI PC”为产品标 签。此外,如苹果、华为、小米、荣耀等其他品牌厂商也正在逐步强化其 PC 产品的 AI 概念,如 2023 年 10 月苹果推出自研 M3 芯片及对应 Mac 产品,该自研芯片引入增强型 神经网络引擎,用于加速强大的机器学习模型;2023 年华为发布的 MateBook X Pro 也将 产品标签定义为“超级终端+AI 智慧交互”。综合来看,AI PC 已成电脑品牌厂商的新业务 聚焦点,而军备竞赛式的产品布局有望提升 AI PC 的普及速度并快速迭代,预计 2024-25 将是产品爆发节点,而品牌厂商或将通过个人大模型的定制化来体现自身产品差异点,而 达成差异化的途径为通过深度的用户调研明确场景定义进而进行差异化产品开发及营销 策略、通过广泛的产业链业务共同打磨优化产品的实际体验。
IoT:交互重心逐渐过渡,看好更多 AIoT 产品涌现
核心观点:IoT 作为轻量级终端,在 AIGC 时代将作为重要的交互入口,未来看产品 新形态驱动市场成长。我们认为,1)IoT 作为轻量级终端,仍需依附重量级 AI 终端使用。 IoT 产品在“强联网”环境下,仅需依附于重量级 AI 产品(如手机、PC)或云端即可使 用大模型相关应用,此外,受限于产品本身的形态和功耗要求,较难落地本地化大模型, 因此无需对算力进行较大升级。2)硬件角度,重点聚焦 IoT 产品的传感器、互联能力升 级。IoT 产品是重要的交互入口(语音、手势等),主要负责数据的采集,为了实现更好的 大模型体验,需提升识别的精准度、数据传输速度并保证低功耗,因此传感器、连接类芯 片需配合升级。3)可穿戴 IoT 产品新形态或成为未来市场引爆点。重点关注行业巨头的 可穿戴产品创新(如传统行业巨头苹果、Meta 的 XR 产品)和初创公司对硬件新形态的探 索(如 Humane 发布的 AI Pin),带动语音、空间交互渗透率快速提升,或有望成为未来 市场增长核心驱动力。
XR:苹果 MR 发布开启空间计算新时代,AI 强化交互、渲染能力
苹果发布首款头显产品,硬件端创新符合预期。苹果发布其首款头显产品 Apple Vision Pro,产品定价为 3499 美元,略超市场预期,有望在 2024 年早期实现销售。整体而言, 我们认为其硬件端表现亮眼,核心创新点聚焦在以下几个方面:1)主芯片:Vision Pro 采 取苹果自研芯片,采用 M2+定制 R1 芯片的组合。2)交互:无手柄设计,采用手势、语 音、眼睛进行交互。3)屏幕:采取内置 Micro OLED+外置弧形 OLED 配置。4)其他: 采用外置电源,连接后可以实现约 2 小时续航。此外,头显可以搭配光学插片,支持不同 近视程度的用户使用。同时我们预计头显或采用 Pancake 方案实现产品轻薄化以及更优的 沉浸感体验,同时或采用自动瞳距调节功能降低眩晕感。
聚焦交互:Vision Pro 传感器最多、最多样,亦是首款无手柄的 VR 设备。相比于其 他主流 VR 设备(主要采用四颗红外摄像头以实现 SLAM 空间感知定位),苹果 Vision Pro 是搭载传感器最多、最丰富的设备(集成 12 个摄像头、5 个传感器、6 个麦克风),且是 首款未配备手柄的 VR 设备,主要依靠手动(监测手势动作可以实现选择、滚动、缩放等 功能)、眼动(用户和头显交互时可用眼神进行光标移动)、语音以完成使用操作。同时,苹果利用机器学习,系统可以监测用户的注视点,并预测用户希望执行的手势操作,实现 手眼协调,以提供丝滑流畅、无缝自然的操作体验。交互上可支持彩色透视、注视点渲染、 手势追踪、面部追踪、眼动追踪。此外,头显亦支持 Optic ID(红膜识别)进行解锁。我 们认为,Apple Vision Pro 引领了空间交互方式,将带领行业进入空间计算新时代,未来 将有大量的 3D 内容、渲染应用落地。
AIGC 强化空间交互、3D 渲染能力,助力 XR 设备快速普及。从落地角度,由于 XR 功耗、散热能力因产品形态受到严格的限制,因此大模型需要在配对的重量级 AI 产品(智 能手机、PC)上运行,XR 头显运行感知和渲染软件栈。从应用角度,目前大模型已经表 现出强大的文本生成图像功能(如 Midjourney),在 3D 领域,有 AI 加持的渲染工具可以 通过内容创作者的文本、语音、图像或视频等各种类型的提示生成 3D 物体和场景,并最 终创造出完整的虚拟世界,并且配合硬件端强化空间交互能力。根据高通发布的《混合 AI 是 AI 的未来》,Stable Diffusion 等文本生成图像类的模型很快将赋能内容创作者在 3D 物 体上生成逼真的纹理,高通预计一年内这些功能将在智能手机上实现,并延伸到 XR 终端; 未来几年,首批文本生成 3D 和图像生成 3D 类的模型将可能实现边缘侧部署;高通预计 十年内大模型将进一步支持由文本或图像生成的高保真完整 3D 空间和场景。展望未来, AIGC 将助力用户自动构建任何需求下的 3D 虚拟场景。
AI Pin:创新硬件形态,使用语音、投影交互
无屏可穿戴设备 AI Pin 发布,探索 AI 终端时代硬件形态创新。2023 年 11 月 10 日, 前苹果工程师创办的 AI 初创公司 Humane 推出了首款无屏幕可穿戴设备 Ai Pin,这是一 种安置在服装上的微型投影,可以使用语音或投屏在手掌上进行交互,在 AI 模型加持下可 执行写文稿、听音乐、实时翻译等任务,产品售价为 699 美元(每月 24 美元订阅费,包 括蜂窝网络数据费及 AI 模型使用费),11 月 16 日开启预售,Humane 预计 2024 年初发 货。
AI Pin 创新点主要包括:1)显示:Ai Pin 拥有“激光墨水显示器”功能,可以在手 掌上投射一个单色用户操作界面(720p),用户可以使用各种手势或语音交互,进行拍照、 翻译等功能。2)形态:AI Pin 可以轻松通过磁力夹子“电子助推器”固定在用户衣服上, 设备的电池组也内置于夹子中,可以通过更换来保证全天运行。此外 Ai Pin 本体拥有两个 呼吸灯,可以告知用户各项功能状态。3)AI 应用:Ai Pin 的操作系统为 COSMOS,不支 持第三方 APP,通过 AI Mic 的软件直接连接到 AI 模型,以实现撰写文稿、整理电邮、实 时翻译、识别等功能。Humane 称得到了来自 OpenAI、微软、谷歌、Slack 和 Tidal 公司 的协助。配置方面,AI Pin 搭载了 2.1GHz 八核高通骁龙芯片,RAM 内存为 4GB,ROM 内存为 8GB;支持蓝牙 5.1 与 eSIM 功能,提供多种连接方式。
交互重心转变,AI Pin 等新形态产品成为 AIGC 时代下交互新入口。我们认为,终端 AI 渗透过程中将发生交互重心的转变,即从以触控输入为主逐渐过渡到语音、手势等,从 衍生出智能终端新形态以及增强传感、传输能力。除主控 SoC 芯片、存储升级以外,其他 升级重点还包括:空间感知能力(增强 3D Sensing 相关传感器能力,提升手势识别准确 度等)、语音识别能力(增加、升级麦克风,语音处理算法升级)和传输能力(提升速率、 降低功耗,关注 WiFi、BLE、星闪升级)。
智能音箱等其他 IoT
以智能音箱为例,多模态大模型正驱动 IoT 智能化升级并带动新需求释放。此前大众 接触的语音助手如 Siri、小爱、小度等,通过以任务分类的形式运行准备不同任务的标注 数据分别进行训练,是传统的 Bert 类模型,即将预先设置好的任务类型放于模型背后,使 用者通过描述任务类型系统来匹配对应的模块,缺点是使用者的指令需要清晰且无法执行 没有预先设置的任务类型。而 GPT 类模型面对用户不同的输入,模型可以自行判断给了 用户更好的体验,这也更接近于大众理解的“通用人工智能”。我们认为,大模型实现对 语义的深度理解最快延伸出的场景首先是文字,其次是语音。考虑到语音输入在 IoT 场景 下较文字输入的便捷性和实用性,我们认为最先受益的是智能音箱产品,通过多模态大模 型赋能,大幅优化语音交互效果并增加功能,有望进一步加速 IoT 终端产品的渗透。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
相关报告
AI行业专题报告:AI大模型时代,智能终端进化论.pdf
AI人脸识别诈骗敲响金融安全警钟.pdf
AI搜索专题报告:怎么看Kimi的空间?.pdf
边缘AI行业研究报告:边缘AI硬件,引领硬件创新时代.pdf
人形机器人专题报告:AI驱动,未来已来.pdf
建筑行业2024年春季投资策略:新国九条催化央企市值国改,低空经济AI与铜矿有色弹性大.pdf
创维数字研究报告:智能终端引领者,智能化AI应用全场景落地.pdf
移动智能终端安全管理系统研究及开发.pptx
高通公司研究:全球SoC芯片龙头,AI赋能智能终端应用有望多点开花.pdf
中科创达研究报告:AI大模型链接智能终端,三大业务齐增长.pdf
创维数字(000810)研究报告:智能终端龙头,VR及AI新技术增量可期.pdf