【东方证券】大模型赋能人形机器人,软硬融合共创颠覆性产品.pdf

2023-11-13
32页
4MB

一、人形机器人:曙光已现,软硬融合共造颠覆性产 品

1.1 国内蓝图开启,海内外利好有望共振


国内蓝图开启,人形机器人有望成为颠覆性产品。2023 年 11 月 2 日,工信部印发《人形机器人 创新发展指导意见》,明确指出:人形机器人集成人工智能、高端制造、新材料等先进技术,有 望成为继计算机、智能手机、新能源汽车后的颠覆性产品,将深刻变革人类生产生活方式,重塑 全球产业发展格局。 明确发展目标,2025 年实现整机批量生产,2027 年要形成安全可靠的产业链供应链体系。《指 导意见》明确指出发展目标:到2025年,人形机器人创新体系初步建立,“大脑、小脑、肢体” 等一批关键技术取得突破,确保核心部组件安全有效供给。整机产品达到国际先进水平,并实现 批量生产,在特种、制造、民生服务等场景得到示范应用,探索形成有效的治理机制和手段。培 育 2-3 家有全球影响力的生态型企业和一批专精特新中小企业,打造 2-3 个产业发展集聚区,孕 育开拓一批新业务、新模式、新业态。2)到 2027 年,人形机器人技术创新能力显著提升,形成 安全可靠的产业链供应链体系,构建具有国际竞争力的产业生态,综合实力达到世界先进水平。 产业加速实现规模化发展,应用场景更加丰富,相关产品深度融入实体经济,成为重要的经济增 长新引擎。


关键技术攻克:《指导意见》提出以大模型等人工智能技术突破为引领,在机器人已有成熟技术 基础上,重点在人形机器人“大脑”和“小脑”、“肢体”关键技术、技术创新体系等领域取得 突破。 一是开发基于人工智能大模型的人形机器人“大脑”,增强环境感知、行为控制、人机交互 能力,开发控制人形机器人运动的“小脑”,搭建运动控制算法库,建立网络控制系统架构。 二是系统部署“机器肢”关键技术群,打造仿人机械臂、灵巧手和腿足,攻关“机器体”关键技术群,突破轻量化骨骼、高强度本体结构、高精度传感等技术。 三是构建完善人形机器人制造业技术创新体系,支持龙头企业牵头联合产学研用组成创新联 合体,加快人形机器人与元宇宙、脑机接口等前沿技术融合,探索跨学科、跨领域的创新模 式。




重点产品和部组件攻关:《指导意见》将打造整机产品、夯实基础部组件、推动软件创新作为主 要发力方向。在整机产品方面,打造基础版整机,构筑人形机器人通用整机平台,开发低成本交互型、高 精度型以及极端环境下高可靠型等人形机器人整机产品,强化人形机器人整机的批量化生产 制造能力; 在基础部组件方面,开发人形机器人专用传感器、高功率密度执行器、专用芯片,以及高能 效专用动力组件; 在软件创新方面,构建人形机器人高实时、高可靠、高智能的专用操作系统,开发面向各类 场景的应用软件,建设完善人形机器人应用开发平台和工具包。


拓展场景应用:《指导意见》从特种领域、制造业典型场景、民生及重点行业三类方向提出意见 措施。 一是加快人形机器人在特种环境应用,面向恶劣条件、危险场景作业等需求,强化复杂环境 下本体控制、快速移动、精确感知等能力。 二是聚焦 3C、汽车等制造业重点领域,提升人形机器人工具操作与任务执行能力,打造人 形机器人示范产线和工厂,在典型制造场景实现深度应用。 三是拓展人形机器人在医疗、家政等民生领域服务应用,满足生命健康、陪伴护理等高品质 生活需求,推动人形机器人在农业、物流等重点行业应用落地,提升人机交互、灵巧抓取、 分拣搬运、智能配送等作业能力。


回顾历史,早在 1986-1993 年,日本本田公司接连开发了 E0 到 E6 等 7 种行走机器人,只有腿部 结构,主要用于研究行走功能。1993 年,公司在研制的 P1 基础上加上了双臂使其初具人形,而 后同年完成的 P3 则是 ASIMO 的原型。2000 年,本田公司推出 ASIMO;2013 年,美国波士顿动 力公司推出 Atlas,能够在碎石堆上行走。 当前人形机器人的主要布局者多为科技公司,也有多家跨界公司入局。美国 1X technologies 公司 与 ADT commercial 合作成功开发的 EVE 机器人可用于安保、护理、调酒等场景,目前在售,每 月可生产 10 台,在美国和欧洲部分地区开始投入使用;公司的 NEO 机器人主要应用于安保、物流、 制造、机械操作以及处理复杂的作业,2023 年底开始接受预订。英国 Engineered Arts 研发的 Ameca 机器人可以在与人类互动时检测情绪和年龄,并可以用常见的表情进行交流,主要应用于 实验研究、展览、接待、教育等领域。国内有小米 Cyberone 重建真实世界、实现运动姿态平衡、 感知人类情绪;优必选 Walker X 主要应用于科技展馆、影视综艺、商演活动、政企展厅;智元机器 人远征 A1 预计先应用在工业制造领域,随后逐步走向 to C 应用。


特斯拉人形机器人进展迅速,在两年不到的时间内实现了快速迭代,完成了开发平台建造、 Optimus 产品亮相以及电机扭矩控制、环境探测与记忆、双手复杂任务等能力的实现。2021 年 首届特斯拉 AI DAY 上其首席执行官马斯克首次公布特斯拉机器人 Tesla Optimus 概念图。2022 年特斯拉AI DAY上特斯拉公布了Optimus原型机的首秀,实现了自主行走,转身,挥手等动作。 2023 年 5 月的股东大会提到特斯拉自研超算 Dojo 为 Optimus 提供算力支持,可加快训练速度并 降低训练成本,加快人形机器人的产业化落地。截至 2023 年 8 月,至少有五个特斯拉 Optimus 机器人原型已经建成并能够行走,使用的电机、控制器和电子设备均由特斯拉设计和制造。马斯 克预计 Optimus 将大规模量产至“百万”量级,预计其单台成本或将低于 2 万美元。


1.2 软硬融合,打造人形机器人新高度


软件决定人形机器人高度,算法需与硬件匹配。人形机器人本质是 AI 系统落地物理世界的最佳载 体,算法是核心,需与硬件匹配。机器人的输出包含了虚拟与物理两种能力。虽然人形机器人从 本体硬件上看,存在抗压硬度与灵敏度不足的问题,但更核心问题在于是算法对运动能力的控制, 包括本体平衡、行走的步态、手部抓取等规划与控制。这需要成熟的感知系统基础、强大的算法 分解任务和规划动作、大模型不断仿真训练以及超强的算力支撑,同时要求算法与硬件相匹配。 这要求机器人企业需自研算法,并持续更新迭代。




硬件方面看,人形机器人产业链主要包括上游的核心零部件,例如无框力矩电机、空心杯电机、 传感器、专用芯片等;中游为机器人本体制造,包括设计、制造、测试三大环节;下游为人形机 器人应用领域,包括工业制造、仓储物流、医疗服务、商业服务、家庭使用等。


从全球范围来看,人形机器人已有商业应用场景预期落地,例如巡逻、物流仓储等领域。商业化 进程领先的人形机器人产品则有 EVE 和 Digit。具体而言,美国 1X technologies 公司与 ADT commercial 公司共同研发的人形机器人 EVE 目前已成功应用于巡逻安保场景;Digit 的应用场景主 要是在物流仓储环节,进行的任务主要包括卸载货车、搬运箱子、管理货架等,预计将在 2025年 全面上市。在政策、资本以及技术多维度赋能下,人形机器人市场的潜力有望被加速释放。未来 的商业应用场景有望渗透进入服务业、制造业等领域。马斯克曾表示其设计特斯拉机器人的远景 目标是让其服务于千家万户比如做饭、修剪草坪、照顾老人等。目前较有潜力的人形机器人发展 方向主要面向制造业、航天探索、生活服务业、高校科研等,预计2025年人形机器人将有望实现 制造业场景应用的突破,小批量应用于电子、汽车等生产制造环境。根据 2023 年 5 月 GGII 发布 的报告预测,预计到 2026 年全球人形机器人在服务机器人中的渗透率有望达到 3.5%,市场规模 超 20 亿美元,到 2030 年全球市场规模有望突破 200 亿美元。参考中国服务机器人市场约占全球 市场 25%的数值测算,2030 年中国人形机器人市场规模将达 50 亿美元。


根据 Tesla AI Day 的预测数据,以特斯拉 Optimus 为例,2023 年人形机器人核心零部件价值量 排名前三的是无框力矩电机、减速器和力传感器; 2030 年无框力矩电机价值量占比下降,力传感 器、减速器价值量占比上升,且力传感器将超过减速器,排名第二,三者合计占比仍超过 50%。


从单机价值量占比来看,无框力矩电机、减速器和力传感器价值量占比较高;从降本空间来看, 空心杯电机、无框力矩电机等降本空间较大;而从国产替代空间来看,行星滚柱丝杠、空心杯电 机、惯导 imu 等国产化率较低,国产替代空间大。


软件方面看,特斯拉 FSD 纯视觉深度学习神经网络渐趋成熟,可嫁接至人形机器人。与自动驾驶 类似,人形机器人同样需利用传感器(摄像头、激光雷达等)感知、采集和处理周围环境信息,以 便做出决策。特斯拉人形机器人仅使用3个摄像头(中间鱼眼摄像头、左右各一个视觉摄像头),直 接嫁接 FSD 成熟的纯视觉方案,再辅之以力、力矩、声学、触觉、温度等传感器。


人形机器人决策难度更高:决策层依据感知层获取的信息进行决策判断,来控制机器人身体做出 动作规划并下发指令。特斯拉人形机器人与 FSD 底层模块打通,一定程度上算法可复用,但人形 机器人需完成人类各种动作,动作连续复杂、需频繁的物理交互且操作因果性多,算法难度远高 于自动驾驶。随着人工智能大模型的快速发展,ChatGPT 能够助力人形机器人拆解任务。大语言 模型擅长推断语言条件,并利用其代码编写能力,拆分任务,给出运动规划的目标函数。


执行:人形整机平衡与行走步态是关键。人形机器人执行层指的是系统在做出决策后,对机器人 本体做出控制。机器人各操控系统都与决策系统相链接,并按指令精确执行。其中,人形整机平 衡与行走步态是最基本也是最关键的两个环节。


仿真:算法训练可提升机器人智能化水平。仿真的目的在于评估机器人结构和算法的设计,包括 机器人的运动、工作环境、感知等,意义在于通过仿真模型快速、低成本、高安全性地训练机器 人的算法。通过仿真,可加快软件更新迭代,同时缩短算法与硬件调整时间,极大提高训练效率。 另外,随着芯片与 AI 技术的发展,未来端到端训练有望突破,人形机器人具身智能未来可期。


二、大模型+机器人:未来智能革命将至

2.1 大模型赋能人形机器人,具身智能是未来目标


人形机器人是软硬件能力高集成的实体,商业化的核心突破点在于“AI 大脑”。可以说,当前的 AI 大脑在逻辑思维和行为智慧决策层面还需要一段成长空间,其驱动力很大程度上来自于算法的 升级与高水平的智能化。 具身智能是人形机器人想要实现的最终方向。具身智能是指一种智能系统或机器能够通过感知和 交互与环境(物理世界)产生实时互动的能力。具身智能包括三个模块:具身 感 知 (Perception)、具身想象(Imagination)和具身执行(Execution),AI+机器人正是“具身智 能”当前的落点。在机器人领域,有一个“莫拉维克悖论”——人类所独有的高阶智慧能力只需 要非常少的计算能力,但无意识的技能和直觉(如辨识人脸、举起铅笔、在房间内走动、转笔等 能力)却需要极大的运算能力,即越简单的事情越难,越难的事情越简单。具身智能机器人未来 要能够像人一样与环境交互、感知、决策、完成任务,其感知层和认知层的能力是非常高的。显 然,当下的人形机器人距离这一状态还有非常巨大的差距。人形机器人传感器数量、品类、执行 机构复杂程度远高于工业机器人,对控制器实时算力、集成度要求极高。




大模型为人形机器人的发展带来了新的突破。以往由于算法模型的局限,机器人难以实现通用化 能力,只能通过对于某一个特定领域训练对应的基础模型,达到能够满足特定用途的机器人 AI 算 法,比如工厂车间大量采用的机器人臂、家用扫地机器人等。软件层面的局限性限制了机器人的 应用场景狭窄、可通用性较差,无法充分发挥硬件层面的性能。而大模型的出现,补全了让机器人能力实现跃升的技术基础。大模型的向量应用提供了大脑给机器人,使机器人具备更高的事物 处理能力。大模型的 Chat 应用把自然语言理解提供给了机器人,机器人首次可以用接近人的语言 水平,和真实人类聊天,进行基于自然语言的互动。此外,大模型的编程辅助可以肉眼可见的减 少软件工程师的工作量,产出软件的成本会逐年下降。 ChatGPT 已经在机器狗领域落地应用,人形机器人未来可期。今年 4 月,AI 公司 Levatas 与波士 顿动力合作,将 ChatGPT 和谷歌的语音合成技术接入 Spot 机器狗,成功实现与人类的交互。可 以说,ChatGPT 的成功,也为人形机器人这一更加高级的领域带来了发展拐点。以 ChatGPT 为 代表的语言大模型能够实现近似人一样的自然语言交互,多模态大模型则能让人形机器人能够通 过“视觉”去与环境交互。可以说,大模型赋予了人形机器人一个通识大脑,从而能够顺畅地和 外界对话,还可以增加任务理解、拆分和逻辑推理等“决策”能力。


大模型的泛化能力让研究者看到人形通用机器人的曙光。以往的 AI 模型训练完成后,就只能用于 其被设计出来的场景中,难以进行拓展,无法实现通用性。而大模型具备强大的泛化能力,让通 用这一目标的实现成为了可能。泛化(Generalization)可以理解为一种迁移学习的能力,把从过 去的经验中学习到的表示、知识和策略应用到新的领域。人类就具有“举一反三”的能力,学习 一个新概念后立即就能理解它在其他情况下的相关用法。以往的 AI 泛化能力很低,应用场景比较 局限,泛化能力的出现让大模型能够在没有被训练过的场景中也能表现出色,是 AI 实现通用性的 基础。人形机器人所面临的应用场景与人类的日常生活接近,需要面对多种多样、不重复、没见 过的任务,模型的泛化能力就成为了其能否真正实现通用的核心要素。


多模态数据包含更多信息,端到端的算法训练框架提升模型泛化能力。图像、视频等多模态的数 据拥有着比文字要多许多的信息,采用多模态数据的大模型有助于实现更高细粒度的语义理解、 对话意图识别以及更精确的情感分析。综合使用多种数据模式的信息,可以显著提升模型的性能。 因此,端到端的训练方式会在机器人模型领域有更多优势。传统的 AI 模型训练需要经历对原始数 据的特征工程或者数据处理阶段,而端到端训练是指直接以原始数据作为输入,输出最终结果的 方法。端到端的训练框架通过缩减人工预处理和后续处理,尽可能使模型从原始的多模态数据输 入到最终输出,给模型更多可以根据数据自动调节的空间,增加模型的整体契合度,提升其泛化 能力。特斯拉的 FSD 算法就是纯端到端的自动驾驶算法,并将这样的训练思路也延续到了其人形 机器人 Optimus 上,特斯拉表示 Optimus 的神经网络训练是“完全端到端的”,即可实现视频信 号输入,控制信号输出。


以 GPT-4 为首的多模态大模型已经具备成为通用性人形机器人核心大脑的初步条件。OpenAI 在 10 月正式上线 GPT-4V(ision)这一新版本,为 GPT-4 新增了语音与图像功能。现在用户可以直 接与 GPT-4V 进行语音交互,并且 GPT-4V 能够对图像进行推理和分析。根据微软团队对 GPT4V 的详细评测,GPT-4V 有作为具身机器人的理解核心的潜力。在微软的测试案例中,GPT-4V 可以扮演一名家庭机器人,阅读咖啡机的操作界面并给出正确的指令操作;或者通过房间图片的输入,要求 GPT-4V 规划出去厨房冰箱取物品的路线,GPT-4V 也可以执行面向任务的导航。具 有多模态输入的 GPT-4V 在面对动态环境时可以很好地与环境交互,证明了 GPT-4 拥有成为人形 机器人核心大脑的潜力。如果将 GPT-4 与合适的硬件进行结合,就有望实现具备 GPT-4 水平的 具身智能。


2.2 科技巨头纷纷入局,通用机器人算法路线仍需探索


基于大模型的具身智能体成为学术界重点研究方向。具身智能被斯坦福大学计算机科学家李飞飞 定义为 AI 领域的下一个“北极星问题”之一, 在大模型流行起来之后,关于以大模型为基础构 造的具身智能体的研究也逐渐变多。今年内,谷歌、微软、英伟达、Meta 等科技巨头都纷纷加入 了这条技术路线的探索中来,试图找到一条适合于通用机器人的算法道路。


1) ChatGPT for Robotics:大模型+机器人结合初探


2023 年 2 月,微软团队发布了一篇名为《ChatGPT for Robotics: Design Principles and Model Abilities》的技术报告,展现出了使用 ChatGPT 来实现自然的人机交互的可能性,为如何将 ChatGPT 融入机器人领域提供了一种全新的视角,也是对于大模型和机器人的结合进行了初探。


ChatGPT 在机器人领域的应用主要体现在两个方面:自然语言交互和自动化决策。大多数的机 器人任务需要由工程师来构建完整的高低级指令代码、不断进行迭代循环才能完成任务。而 ChatGPT 则带来了新的机器人任务范式,ChatGPT 具备自然语言交互和自动化决策能力,机器 人可以通过 ChatGPT来理解人类的自然语言指令,并根据指令进行相应的动作。另外,机器人在 执行任务时需要做出各种决策,例如路径规划、物体识别等。ChatGPT 可以应用于机器人的自动 化决策中,机器人可以通过 ChatGPT 来生成任务方案,根据任务要求做出相应的决策。引入 ChatGPT 后,工程师仅需做好机器人的底层库函数及其描述,ChatGPT 就能够自己利用这些底 层函数来编写代码以完成目标,将工程师从循环中解放出来。


微软团队给出了一套适合为机器人任务编写提示方法的设计原则。首先,定义机器人的功能库函 数,比如检测物体、移动底盘等,函数命名要与实际动作符合。第二,为 ChatGPT 编写 prompt, 描述任务目标,同时明确说明可用的高级函数库中的哪些函数。提示还可以包含有关任务约束的 信息,或者有关 ChatGPT如何形成其答案(特定编码语言,使用辅助解析元素)的信息。第三, 在仿真环境中运行并评估 ChatGPT的代码输出,保证模型能够安全完整地做好任务。最后,将算 法部署到机器人上。


基于该设计原则可以实现多种 ChatGPT 结合机器人的应用,为进一步研究大模型+通用机器人打 下了基础。微软团队也针对几个场景进行了 ChatGPT 结合机器人的测试,包括用无人机检查货 架、模拟环境中用无人机进行工业巡检、控制机器人手臂拼积木等。由于 ChatGPT只能用文字进行交互,对于外界环境的感知需要对传感器传回的图像进行对象检测,并转化为文本描述才能输 入给 ChatGPT。微软团队的研究初步展示了 ChatGPT 这一大语言模型作为机器人的决策中枢的 可能性,为后续更加深度的大模型+机器人探索迈出了第一步。


2) PaLM-E:最大的多模态视觉语言模型


2023 年 3 月,柏林工业大学和 Google Robotics 团队结合了 Google 当时 5400 亿参数的 PaLM 大 语言模型和 220 亿参数的 Vision Transformer(ViT)模型,提出了当时最大规模的 5620 亿参数 的具身多模态视觉语言模型 (Visual Language Model, VLM)PaLM-E。在 PaLM 模型基础上, 引入了具身化和多模态概念,实现了指导现实世界机器人完成相应任务的功能。 PaLM-E 采用从多模态信息到决策端的端到端训练。PaLM-E 直接将连续的、具体的多模态观察 (如图像、状态估计或其他传感器模态),转化为和语言 token 嵌入空间维数相同的向量序列, 用和语言 token 同样的方式注入预训练语言模型的语言嵌入空间,从而在文字和感知之间建立联 系,已解决机器人相关的具身问题。模型的输入是交错的视觉、连续状态估计和文本组成的多模 态编码,然后对这些编码进行端到端训练,输出的内容则是对于机器人要执行的动作的文本决策。 整个过程不需要对场景的表示进行预处理。


以大模型作为核心的 PaLM-E 表现出了较强的泛化能力和涌现能力。研究人员发现,PaLM-E 继 承了大语言模型的核心优点:泛化和涌现能力。得益于端到端的多模态信息训练,PaLM-E 在面 对没有学习过的任务(zero-shot)时也能有很好的表现,具备将从一项任务学到的知识和技能迁 移到另一项任务的能力。经过不同任务混合训练后的 PaLM-E,与执行单一任务的机器人模型相 比,性能明显提高。同时,尽管 PaLM-E 只接受了单图像提示的训练,但却已经展示出了涌现能 力,比如多模式思维链推理(可让模型分析包括语言和视觉信息在内的一系列输入)与多图像推 理(用多个图像作为输入来做出推理或预测)。


PaLM-E 展示了大模型和机器人结合的诸多可能性。以大模型为核心的 PaLM-E 有了良好的迁移 学习能力,从而可以通过自主学习来完成长跨度规划的任务,比如,“从抽屉里拿出薯片”这类 任务包括了多个计划步骤,并且需要调用机器人摄像头的视觉反馈。经过端到端训练的 PaLM-E 可以直接从像素开始对机器人进行规划。由于模型被集成到一个控制回路中,所以机器人在拿薯 片的过程中,对途中的干扰具有鲁棒性。并且由于其采用了多模态信息作为输入,相比 ChatGPT for Robotics 论文中需要将图像信息转化为文字输入来说能够获取更多的信息,从而提升机器人模 型的性能,能够应用到更广泛的场景中。


3) RT-2:首个视觉-语言-动作多模态大模型


2023 年 7 月,谷歌 DeepMind 推出 了 RT-2,这是全球第一个控制机器人的视觉-语言-动作 (Vision-Language-Action,VLA)模型。通过将 VLM 预训练与机器人数据相结合,能够端到端 直接输出机器人的控制。 RT-2 以 VLM 为基础,升级成为全新的视-语言-动作(VLA)模型。RT-2 将一个或多个图像作为 输入,并生成一系列通常代表自然语言文本的标注。例如RT-2将原本非常具体的机器人动作数据 转变成文本 token,例如将转动度数、坐标点等数据,转变成文本“放到某个位置”。这样一来, 机器人数据也能被用到视觉-语言数据集中进行训练,同时在进行推理的过程中,原本的文本指令 也会被重新转化为机器人数据,实现控制机器人等一系列操作:为了控制机器人,研究人员通过 将操作表示为模型输出中的标注,并将操作描述为可以由标准自然语言标注生成器处理的字符串, 这种字符串的示例可以是机器人动作标记编号的序列,例如“1 128 91 241 5 101 127 217”。该 字符串以一个标志开始,该标志指示机器人是继续还是终止当前情节,然后机器人根据指示改变末端执行器的位置和旋转以及机器人抓手等命令。由于动作被表示为文本字符串,因此机器人执 行动作命令就像执行字符串命令一样简单。有了这种表示,就可以直接对现有的视觉-语言(VLM) 模型进行微调,并将其转换为视觉-语言-动作(VLA)模型。


RT-2 较基线模型 RT-1 等而言具有更强的任务处理能力和泛化能力。谷歌在去年推出了 RT-1 机 器人模型,RT-2的训练则延续使用了 RT-1 的演示数据,由 13 个机器人在办公室、厨房环境中, 历时 17 个月进行收集。RT-2的基础 VLM则选用了不久前推出的 PaLM-E和更早一些的 PaLI-X, 通过测试后发现,RT-2 与之前的模型相比,具有更高的任务成功率(符号理解、推理和人类识别 三个方面)以及更强的泛化和涌现能力(在机器人面对以前未见过场景中的性能方面,RT-2 从 RT-1 的 32% 提高到 62%)。




RT-2 具有学习长期规划和简易技能的能力。研究人员将思维链能力加入到了机器人控制中,通过 对数据进行增强,添加了一个额外的“计划”步骤,该步骤用自然语言描述机器人即将采取的动 作的目的,然后是动作的描述和标注。例如“指令:我饿了。计划:挑选 Rxbar 巧克力。行动: 1 128 124 136 121 158 111 255”。通过这一过程,RT-2 就可以先用自然语言规划自己的行动, 从而可以执行更多复杂的命令。


4) VoxPoser:机器人任务轨迹规划


2023 年 7 月,斯坦福大学李飞飞团队提出了智能系统 VoxPoser, 它可以从大模型 LLM 和视觉语言模型 VLM 中提取可行性和约束,以构建 3D 仿真环境中的值地图,供运动规划器使用,用于 零样本地合成机器人操纵任务的轨迹,从而实现在真实世界中的零样本机器人操纵。 该模型把复杂指令转化成具体行动规划,人类可以随意地用自然语言给机器人下达指令,机器人 也无需额外数据和训练。其原理很简单,首先,给定环境信息(用相机采集 RGB-D 图像)和我 们要执行的自然语言指令。接着,LLM根据这些内容编写代码,所生成代码与 VLM进行交互,指 导系统生成相应的操作指示地图,即 3D 值地图。它是可行性地图和约束地图的总称,既标记了 “在哪里行动”,也标记了“如何行动”。再利用动作规划器,将生成的 3D 地图作为其目标函 数,便能够合成最终要执行的操作轨迹。相比传统方法需要进行额外的预训练,这个方法用大模 型指导机器人如何与环境进行交互,直接解决了机器人训练数据稀缺的问题。


VoxPoser 还具有 4 个新颖的涌现能力。1)估算物理属性:给定两个未知质量的方块,机器人被 要求使用现有工具进行物理实验,确定哪个方块更重。2)常识性行为推理:在摆桌子的任务中, 用户可以指定行为偏好,比如“我是左撇子”,机器人能根据上下文理解其含义。3)细粒度语 言纠正:比如执行“给茶壶盖上盖子”这种精度要求较高的任务时,可以向机器人发出“你偏离 了 1 厘米”等精确指令来校正它的操作。4)基于视觉的多步操作:比如叫机器人将抽屉精准地打 开成一半,由于没有对象模型导致的信息不足可能让机器人无法执行这样的任务,但 VoxPoser 可以根据视觉反馈提出多步操作策略,即首先完全打开抽屉同时记录手柄位移,然后将其推回至 中点就可以满足要求了。


5) RoboAgent:小数据集下的通用机器人智能体


2023 年 8 月,Meta 和 CMU 团队联合推出了通用机器人智能体 RoboAgent。不同于 DeepMind 的 RT 系列模型采用了大规模机器人数据集进行训练,考虑到机器人在现实世界中的训练和部署 效率问题,Meta 将数据集限制到了 7500 个操作轨迹中,并基于此让 RoboAgent 实现了 12 种不 同的复杂技能,包括烘焙、拾取物品、上茶、清洁厨房等任务,并能在 100 种未知场景中泛化应 用。


构建一个可以泛化到许多不同场景的机器人智能体需要一个覆盖面足够广的数据集。例如 RT-1 就采用了超过 13 万条机器人操作轨迹数据来进行训练,RoboAgent 则着眼于在有限的数据下提 高机器人学习系统的效率,而较少的数据通常会导致模型过拟合。RoboAgent的数据集共有7500 条数据,分别在 4 个厨房场景中采集,包含 12 个技能,38 个任务。基于此小体量的数据,Meta 采用了全自动的数据增广来对数据集进行信息扩充,通过 Meta 提出的“分割一切模型” (Segment Anything Model,SAM)来对图像中的被操作物体和背景进行分割,然后分别对被操 作对象和背景进行修改,以达到数据集扩充的目的。


RoboAgent 带来了数据效率的提升。Meta 提出了 MT-ACT——多任务动作分块 Transformer 这 一学习框架,与一些常见的训练算法框架相比,RoboAgent 体现出了更高的样本效率,并且在多 个泛化层面上都有出色表现。Meta 对泛化级别进行了可视化,L1 表示物体姿态变化,L2 表示多 样的桌面背景和干扰因素,L3 表示新颖的技能-物体组合。MT-ACT 的表现显著优于其他算法, 特别是在更困难的泛化层次(L3)上。


6) RT-X 和 Open X-Embodiment Dataset:机器人的 ImageNet 时刻


10 月 4 日,谷歌 DeepMind 在官网发布了全球最大通用大模型之一 RT-X,并开放了训练数据集 Open X-Embodiment。该数据集来自 21 个研究机构,包含在 22 种类型的机器人上采集的超过 15 万个任务的上百万条数据,展示了 527 项技能。诸多人工智能科学家表示,机器人模型的 ImageNet 时刻到来了。


采用 Open X-Embodiment 训练的 RT-X性能表现大幅提升。DeepMind分别基于 RT-1和 RT-2, 采用 Open X-Embodiment 数据集进行训练得到了 RT-1-X 和 RT-2-X,得益于更多样化、跨实体 的训练数据,性能表现较原有模型均有大幅提升。在相同的模型架构下,使用 Open XEmbodiment 数据集训练的 RT-1-X 平均性能优于原始模型 50%。RT-2-X 则可以执行从未训练的 操作,涌现能力达到了RT-2的三倍,包括对空间的更好理解,动作的细腻程度等。例如,让机器 人把苹果拿到布附近,而不是拿到布上面,RT-2-X 都能很好的区别这些指令的差异,并做出相应 的动作。




DeepMind 的这项新研究表明,通过利用更多样化的数据和更好的模型进行扩展学习,有可能开 发出更有用的辅助机器人。基于大量机器人数据训练得到的通用大模型可以在不同环境下应用, 无论是在谷歌 DeepMind 的机器人上,还是在世界各地不同大学的机器人上,其性能都得到了显著提高。未来的另一个方向是进一步探索不同数据集的混合会如何影响跨具身智能体泛化,以及 这种泛化是如何是实现的。


7) Eureka:基于 GPT-4 的 AI 系统


2023 年 10 月,英伟达发布了一种能够自动训练机器人执行新任务的 AI 系统 Eureka。该系统以 OpenAI 的 GPT-4 为基础,本质是一种由大模型驱动的算法生成工具,能训练实体机器人执行例 如“转笔”、“开抽屉”、“拿剪刀”、“双手互传球”等多种复杂动作。


Eureka 的关键创新在于结合生成式 AI 来实现了人类水平的奖励算法设计。Eureka 使用 GPT-4 的零样本生成、代码编写以及上下文改进功能,对奖励执行策略进行了优化,由此通过强化学习 来学会执行复杂的技能。Eureka 会基于训练结果汇总关键统计数据,并指导 LLM 改进其奖励函 数的生成。在 29 种不同的开源强化学习环境中,Eureka 奖励设计的性能达到了人类水平,这些 环境包括 10 种不同的机器人形态(四足机器人、四旋翼机器人、双足机器人、机械手以及几种灵 巧手)。在没有任何特定任务提示或奖励模板的情况下,Eureka生成的奖励程序在超过 80%的任 务上优于专家编写的奖励程序,这使得机器人的平均性能提高了 50%以上。在以人类设计的奖励 程序作为初始条件时,Eureka 的表现还会进一步提升。


英伟达的最新成果则展示了大模型在机器人精细化控制方面的作用,能够让机器人首次实现一些 高复杂性动作。我们认为,在英伟达的推动下,更智能的机器人学习方式有望被迅速引入工业和 消费应用领域。


三、机器人大模型面临的问题

虽然各家科技巨头厂商都在针对通用机器人大模型进行深入探索,但目前来看,距离实现真正的 具身智能水平的模型还有很长的路要走。机器人大模型还面临着诸多问题,包括机器人数据、实 时性、软硬件融合等。


3.1 高质量训练数据缺乏,合成数据有望成为新方向


机器人算法的训练需要大量机器人真实数据。机器人需要通过多种传感器感知环境状态,然后执 行实际动作来完成任务,因此训练用于机器人的大模型需要用到大量机器人在真实世界中与环境 进行交互的数据集。相比图像和自然语言处理领域可以从网上大量获取训练数据或者通过人类标 注快速低成本的获取数据,可用于训练机器人学会执行新任务新技能的高质量数据非常匮乏。主 要原因在于:


1> 数据丰度问题:ChatGPT 是一个语言模型,从语言角度来说,每个人每分钟能够说出 100- 200 字,转化成计算语言就是 1~2 k 字节每秒的传输速率。多模态模型一次输出 4 张图片的 传输速率也不过在 MB 级别甚至更低,这个数据会远小于机器关节运动的所产生的信息量。 机器人在执行任务时面临的环境和交互内容、产生的数据模态更多更复杂,机器人在单位时 间内能够产生的数据要远超语言几个数量级。


2> 机器人领域缺乏数据基础:对于 ChatGPT 来说,公开的互联网数据十分充足,有大量的公 域数据可供爬取。但现实中的机器人保有量太少,可用于收集训练数据的机器人就更少。此 外,每个机器人厂商都会有自己的壁垒,倾向于保护自己的数据,导致机器人领域数据获取 难度进一步提升。


3> 数据搜集效率:传统 CV/NLP 等任务只需要收集文字、图像等数据,可以通过公开互联网进 行爬取,数据采集效率非常高。而机器人领域数据的采集需要真实的机器人去执行任务操作, 花费的时间较爬虫相比效率很低。


开源 Open X-Embodiment 数据集是重要进步,但仍旧不足。谷歌开源的机器人训练数据集 Open X-Embodiment 汇集了全球 34 个机器人研究实验室的 60 个现有数据集,包含了在 22 种类 型的机器人上采集的超过 15 万个任务的上百万条数据,被誉为机器人领域的 ImageNet 时刻,是 机器人模型领域的重要进步。但该数据集主要针对的是常见的操作技能,比如拾取、放置、推拉、 移动等,如果要朝着人形机器人的未来发展的话,人形机器人涉及到的全身肢体协调、行走时的 平衡等数据的需求量仍较大。


合成数据有望能够解决部分数据不足的难题。英伟达在 10 月末推出了名为 MimicGen 的系统,只 需少量人类示范,便能自动生成大规模的机器人训练数据集。使用不到 200 个人类演示, MimicGen 可自主生成超过 5 万个训练数据,涵盖 18 个任务、多个模拟环境。机器人智能体可以 通过模仿学习在生成的数据集上进行有效训练,以在长期和高精度任务中获得出色的性能,例如 多部件组装和制备咖啡等任务。我们认为,合成数据有望能解决机器人领域高质量训练数据不足、 采集效率低下等问题,是一条扩大机器人学习的强大且经济的途径。


3.2 实时性仍需提升,算力可能是瓶颈


机器人大模型对机器人行动控制的周期仍太长,无法做到实时响应。当前各大科技厂商研究出的 算法虽然能够实现机器人技能水平的提升,但是在响应速度方面仍较差。谷歌RT-2的演示视频需 要 2 倍速播放才能实现比较流畅的机器人动作,而 Voxposer 更是需要 8 倍速才能有流畅的动作表 现,如果按原速看的话,能发现 Voxposer 控制的机器人轨迹并不是平滑的,而是有不断的小停 顿。这样的迟滞性在真正想要实现通用的人形机器人领域是比较难以接受的。 实时性的提升依赖于算力,对于面对高复杂性环境的人形机器人尤其重要。中科院院士姚期智在 2023 世界机器人大会的演讲中表示,计算能力的挑战非常重要,谷歌研发的 RT-2 模型在机器人控制周期上只能达到 3Hz 的水平,和通用人形机器人需要的 500Hz 差的很远,距离实际需要的控 制水平仍有许多事情要做。从动态角度看,人形机器人需要实时控制系统,所有的伺服关节也要 同步运动,传感器的数据也要同步采集,从而保证算法的输入和输出都始终处于一个节拍,从而 保证算法的性能。所以,实时算法急需高算力的支撑,让系统在一定的时间周期内完成计算。而 人形机器人未来的目标是要走进千家万户,这就要求必须具备对复杂环境的适应性算法,包括走 路时对地面的适应性、手臂工作时对障碍物的适应性、机器人在人机交互、人机协同时的适应性。 这些复杂算法都对控制器的算力提出了巨大的挑战。


特斯拉为 Optimus 机器人自研 SoC,Dojo 超算也将为 Optimus 提供算力支持。在特斯拉 2022 年 AI Day 上,特斯拉宣布将基于 FSD 为 Optimus 推出自研的 SoC。2023 年 6 月,特斯拉宣布今 年 7 月 Dojo 超算就会正式投产,2024 年 2 月特斯拉的算力规模将进入全球前五,2024 年 10 月 特斯拉的算力总规模将达到 100 EFlops,相当于 30 万块英伟达 A100 显卡的算力总和。Dojo 能 够处理海量的视频数据,不仅能够加速特斯拉的 Autopilot 和 FSD 系统的迭代,还能为人形机器 人 Optimus 提供算力支持。




3.3 软硬件融合是最终目标


软硬件能力的协同进化也同样重要。波士顿动力创始人 Marc Raibert 在演讲中提到,未来的机器 人技术发展过程中,硬件工程和软件同等重要。“有些人认为软件可以克服硬件上所有的问题和 限制,我并不赞同这个观点”。以波士顿动力的人形机器人为例,在Atlas的硬件工程方面,公司 做了大量工作——包括液压系统、多个专门的阀门、专用电池、负载等各个方面,把机器人的重 量从 170 公斤缩小到 90 公斤,这个过程中,他们没有在机器人的功能上有任何妥协,反而提高了 机器人的运动范围力量和速度。 人形机器人零部件众多,做好软硬件协同才能发挥其硬件水平。人形机器人集成了大量不同的传 感器,如:视觉、听觉、位置、柔性传感器等,这些传感器能够让机器人通过“五官”接近人类, 收集并感知外界信息。以特斯拉 Optimus 为例,原型机动力系统部分有 28 个结构执行器,50 个 基础自由度,全身能够产生 200 个以上不同角度的动作。灵巧手单手有 6 个执行器,11 个自由 度,采用金属肌腱带动机器人能够精确抓住小而薄的物体。而在接下来的“分解、规划任务、运 动中识别物体、完成高质量的实时交互,最后完成具体任务”一整套作业过程中,更需要把人形 机器人的核心软硬件有机整合,协同好各部分的速度、力度、准确性,让这些硬件系统各司其职 完成任务,其难度是巨大的。


端到端大模型一定程度上解决软硬件协同问题。端到端的算法能够把机器人各个部位传感器的感 知数据直接作为输入,输出硬件层面各个部件的控制动作,一定程度上能够解决软硬件协同的问 题。但是这种方法属于“大力出奇迹”的一条道路,需要通过大量的数据训练、甚至是几个数量 级以上的数据训练才能够真正得到一个能够接受人形机器人产生的所有数据并能给出输出的超大 基础模型,这就又回到了前两个挑战:高质量数据的缺乏和能够支撑这样强的端到端大模型实时 给出响应的算力。未来可能在云端会有比较强的一个端到端、且足够泛化的大模型,但是在端侧, 到底需要多大能力的芯片,或者说需要有多长多强的工程化的剪枝的能力,才可以将大模型去落 到端侧人形机器人呢?这将仍是人形机器人走向通用化面临的重要困难。



(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)


相关报告

机器人行业专题报告:大模型赋能人形机器人,软硬融合共创颠覆性产品.pdf

人形机器人行业深度报告:人形机器人从0到1,国产化&软件赋能带来行业变革.pdf

人形机器人专题报告:MEMS IMU或为人形机器人实现两足运动平衡的最佳方案.pdf

空心杯电机和无框力矩电机行业专题分析:人形机器人带来空间弹性,国产电机有望迎发展.pdf

2024年中国养老机器人行业市场研究报告

机器人行业专题报告:人形机器人与科技新革命.pdf

人形机器人行业专题报告:AI加速具身智能落地,关注电机、传感器部件.pdf

行星滚柱丝杠行业研究:高精技术集成之作,人形机器人线性关节.pdf

人形机器人金属材料行业深度报告:人形机器人加速发展,钕铁硼、镁合金显著受益.pdf

新材料产业深度报告:人形机器人带来新材料机遇.pdf

人形机器人行业执行器系统专题报告:核心部件,顺势启航.pdf

【东方证券】大模型赋能人形机器人,软硬融合共创颠覆性产品.pdf-第一页
联系烽火研报客服烽火研报客服头像
  • 服务热线
  • 4000832158
  • 客服微信
  • 烽火研报客服二维码
  • 客服咨询时间
  • 工作日8:30-18:00