前言

// 待更

第一部分 HumanoidPF:Collision-Free Humanoid Traversal in Cluttered Indoor Scenes

1.1 引言与相关工作

1.1.1 引言

如原文所述,当机器人走进家庭场景后,那其需要在卧室、客厅和厨房之间频繁往返,以执行各类家务

  1. 而机器人面临的一个关键挑战,是在移动过程中避免与周围环境发生碰撞,从而防止对机器人本身或环境造成潜在损害
  2. 在杂乱的室内场景中,人形机器人可能需要跨越散落在地板上的物体、从低矮障碍物下方俯身通过,或挤过狭窄通道
    这就要求机器人能够感知环境,并将具有多样空间布局和几何形态的障碍映射到相应的穿越技能上

尽管在复杂环境中的足式运动已经在四足机器人 [1]–[13]和人形机器人 [14]–[24] 方面取得了显著进展,现有工作在处理杂乱室内场景中的行走能力方面往往仍然受到限制(全空间障碍物布局以及复杂、逼真的几何形状),如表 I 所示

这些局限性共同表明,在进行碰撞规避时缺乏一种有效的人形体–障碍物关系表征:

  1. 现有工作 [8]–[13]、[15]、[23] 通常只在发生碰撞时才获得惩罚信号,导致监督既稀疏又滞后
    这迫使强化学习(RL)依赖低效的试错式探索,因此亟需一种能够提供前瞻性且稠密指导的表征
  2. 传统表征在不考虑人形体–障碍物空间关系的情况下,将策略直接暴露于原始的高维环境测量之中,迫使策略通过隐式的运动学推理来推断通行决策

为弥合这些差距,作者提出了 Humanoid PotentialField(HumanoidPF)这一信息量丰富的表示,用于编码类人机器人与障碍物之间的关系,以实现避碰

受经典人工势场(Artificial Potential Fields, APF)[25] 的启发,HumanoidPF 将类人机器人如何受其周围环境影响以及应如何响应,建模为一个连续且可微的梯度场,从而产生指向无碰撞运动方向的“虚拟力

如原论文所述,作者以两种互为补充的方式,将 HumanoidPF 无缝集成到穿越技能学习中

  1. 首先,HumanoidPF 作为策略的观测信号:通过在多个关键身体部位进行查询,它提供方向性线索,指示各个部位应如何运动以避开障碍并向目标推进
    这样一来,策略可以直接在穿越决策层面进行推理,而不必从原始的高维视觉输入中间接推断避障行为
  2. 其次,HumanoidPF 简化了具备碰撞感知的奖励设计。该场在偏好的运动方向上诱导出一个分布,并鼓励策略将自身的运动与这一分布对齐
    这为强化学习模型提供了具有前瞻性且足够的监督,同时在无需手动调节奖励的情况下,展现出很强的跨场景泛化能力

    此外,作者观察到,作为一种感知表征,HumanoidPF 在“从模拟到真实”(sim-to-real)方面呈现出令人惊讶的微小鸿沟
    其连续场形式天然地充当低通感知滤波器,平滑掉孤立的感知伪影,从而促进鲁棒的模拟到真实迁移

为了让 HumanoidPF 在多样且具有挑战性的障碍物配置中学习通行与穿越能力,作者提出了一种混合场景生成策略,用于系统性地扩展训练场景的空间

  1. 具体而言,作者在逼真的三维室内数据集中裁剪得到的子场景基础上,程序化合成高度受限的障碍物进行增强,从而为机器人构造出一系列在现有数据集中极少出现的、高难度杂乱环境“课程”
    这使得机器人能够获取丰富的避碰经验,并显著提升其在近碰撞和紧急情形下的鲁棒性
  2. 作者进一步将所提出的方法具体化为一个实用的远程操作系统,称为 Click-and-Traverse(CAT)
    在该系统中,用户只需点击一个目标,就可以指挥仿人机器人安全穿越杂乱的室内环境。在仿真环境和逼真的真实世界室内场景中进行的大量实验验证了 HumanoidPF 的实际适用性,以及在多样化环境中的强泛化能力

1.1.2 相关工作

首先,对于复杂环境中的足式运动

  1. 足式机器人被期望能够在复杂环境中实现稳定运动,包括具有挑战性的地形和各种障碍物。四足机器人已经在高度具有挑战性的地形上 [1]–[7],以及在狭窄或杂乱空间中 [8]–[13] 展示出鲁棒的跑酷能力

    仿人机器人同样已经展现出在高度受限环境中导航的能力 [14],以及应对高风险地形或障碍物的高级行走技能,例如上下楼梯、行走在平衡木上以及跨越跳石等 [15]–[24]
  2. 然而,现有关于仿人机器人研究的工作往往仅限于具有部分空间布局的障碍物(例如地形 [15]–[22], [24],或悬垂障碍物 [14]),以及几何形状简单的障碍物(例如矩形块体 [14]–[17], [20]–[22],或正多面体[19], [23])

    值得注意的是,尽管 Gallant [23] 分别处理了地面、侧向以及头顶障碍物的布局,但并未考虑这些约束同时共存的情形

相比之下,HumanoidPF能够在杂乱的室内场景中运行,在这些场景中,全空间约束与高度复杂的几何形状共同存在。现有工作的对比以及HumanoidPF的方法如表 I 所示

其次,对于用于避障的人工势场法

人工势场(Artificial Potential Field,APF)[25] 方法最初于20世纪80年代末提出,它通过生成虚拟力场来引导机械臂或移动机器人的运动以实现避障

受物理类比的启发,其目标位置被建模为一个吸引极,而障碍物则作为具有斥力的表面。传统上,人工势场(APF)已被广泛应用于移动机器人[26]–[28]和机器人机械臂[29]–[31]的二维路径规划中

然而,仅有少量研究在有限的形式下,将基于模型的四足机器人控制与 APF 结合起来,其做法是将质心[32]、[33]或足部关节[34]、[35]抽象为单个刚体,这不足以应对类人学习中复杂的规划与控制挑战

相比之下,作者提出 HumanoidPF,这是一种对 APF 的有原则的重新表述,专门为类人技能学习中的信息量丰富的感知与奖励精简而设计

1.2 HumanoidPF的完整方法论

作者研究在杂乱室内场景中无碰撞人形体穿越的问题

给定一个目标位置\mathbf{g} \in \mathbb{R}^{3},以及一组室内障碍物O=\left\{O_{i}\right\}_{i=1}^{N},人形体需要在不与O发生任何碰撞的情况下移动到g

为了解决这一问题,人形体需要将其对周围障碍物的感知映射到相应的穿越技能上。HumanoidPF的方法可以分为两部分

  1. 首先在第III-A 节介绍的HumanoidPF 如何编码人形体与障碍物之间的关系,以促进人形体穿越学习
    且将在第III-B节中进一步介绍如何利用作者提出的混合场景生成方法
  2. 为了在真实环境中部署,作者进一步将HumanoidPF具体实现为一种遥操作行走导航系统,其细节在第III-C节中给出

整体流程如图2所示

总之,作者学习一种视觉-运动策略,将多样的障碍物几何形状和空间布局映射为相应的全身穿越技能

左:用于全身穿越学习的 HumanoidPF

  • 上)构建 HumanoidPF,即对 APF 的重新表述,使其适配人形机器人全身穿越
  • 下)将其用作信息丰富的感知表征以及避碰奖励

右:可扩展的训练与部署流程

  • 上)通过混合场景生成构建多样且具有挑战性的训练环境
  • 中)并行训练多个专家策略,并将其蒸馏为单一通用策略
  • 下)通过 Click-and-Traverse 实现从模拟到现实的部署,使在杂乱室内场景中的行走导航远程操控变得直观

第 III-A、III-B 和 III-C 节分别对用于穿越学习的HumanoidPF、可扩展训练以及部署流程进行详细说明

1.2.1 用于全身穿越学习的 HumanoidPF

作者在经典 APF(人工势场)方法的基础上进行了大幅扩展,以支持基于学习的全身人形机器人穿越能力

  1. 在 APF 中,目标位置 g 被建模为吸引源,障碍物 O 被建模为斥力面,从而形成一个指示朝向目标的无碰撞运动的梯度场
  2. 然而,以往工作将 APF直接应用于基于单刚体模型的控制,这难以满足人形机器人技能学习中高维度且强耦合的规划与控制需求

因此,作者提出 HumanoidPF,这是一种专为人形机器人定制的、对 APF 的有原则重构,它对人形机器人与障碍物之间的关系进行编码,以支持信息更为丰富的感知和更为简化的奖励设计

1.2.1.1 HumanoidPF 的构建
  1. 首先,构造吸引场U_{\mathrm{att}}
    U_{\mathrm{att}}(\mathbf{x})=\eta\|\mathbf{x}-\mathbf{g}\|_{\mathrm{geo}}

    其中测地距离\|\mathbf{x}-\mathbf{g}\|_{\mathrm{geo}}表示从位置x 到目标g 且不与障碍物相交的最短三维路径,\eta是一个缩放因子
    测地距离本质上考虑了障碍物的几何形状,因此比简单的欧几里得距离提供更安全的引导
  2. 接下来,斥力场U_{\mathrm{rep}} 防止碰撞
    其定义为
    U_{\text {rep }}(\mathbf{x})=\left\{\begin{array}{ll} \frac{1}{2} \xi\left(\frac{1}{d(\mathbf{x})}-\frac{1}{d_{0}}\right)^{2}, & d(\mathbf{x}) \leq d_{0} \\ 0, & d(\mathbf{x})>d_{0} \end{array}\right.
    其中d(\mathbf{x})是符号距离,\xi 是缩放因子,d_{0} 定义了障碍物的影响范围
  3. 最终的引导场是组合势函数的负梯度
    \mathbf{F}=-\nabla U, \quad U(\mathbf{x})=U_{\mathrm{att}}(\mathbf{x})+U_{\mathrm{rep}}(\mathbf{x})
    随后在不同身体部位的位置进行查询,为每个身体部位\mathbf{p}_{k} 产生场向量\mathbf{F}\left(\mathbf{x}_{k}\right)

    对应的APF 二维可视化如图3 (a) 所示

尽管 APF 方法通常将机器人建模为单一刚体,但若直接应用于多关节仿人机器人,则可能在不同身体部位之间产生冲突

例如,当机器人正面遇到前方障碍物时,必须在向左或向右绕行之间做出决策。机体左侧和右侧的势场分别将其引导至相反的路径。在对称构型下,这些向量会相互抵消,从而导致一种多模态困境:机器人要么陷入局部极小值,要么表现出振荡行为

为解决这一问题,作者提出了一种优先级加权方案,根据各个身体部位对任务的贡献度,对其影响力设定不同的优先级

优先级加权

与将所有身体部位一视同仁不同,作者的优先级加权方案会根据各身体部位在整体运动中的作用来调整其影响力

为了建立连贯的全局引导,作者为根部身体部位(例如骨盆)分配更高的优先级,因为它在保持稳定性和方向上起着核心作用:

w_{0}\left(\mathbf{p}_{\text {root }}\right)=1, \quad w_{0}\left(\mathbf{p}_{\text {others }}\right)=0.5 .

此外,一些身体部位在避障中更加关键,尤其是那些更接近潜在碰撞的位置

为此,作者基于带符号距离d\left(\mathbf{x}_{k}\right)和身体部位\mathbf{p}_{k} 的笛卡尔速度\mathbf{v}_{k} ,以及一个缩放因子\lambda,定义了一个动态碰撞紧迫度权重:

w_{1}\left(\mathbf{p}_{k}\right)=\lambda \max \left(-\nabla d\left(\mathbf{x}_{k}\right) \cdot \mathbf{v}_{k}, 0.5\right) \exp \left(-d\left(\mathbf{x}_{k}\right)\right)

由此得到的HumanoidPF 定义为

\mathbf{F}_{H}=w_{0} w_{1} \frac{\mathbf{F}}{\|\mathbf{F}\|}

该方案削弱了相互冲突的影响,并促进了协调的全身控制。尤其是,空间构型中的细微不对称会被选择性放大,从而无缝地解决多模态困境

1.2.1.2 基于 HumanoidPF 的地形穿越技能学习

用于策略观测的HumanoidPF

为了更好地让RL 策略了解人形体与障碍物之间的关系,作者利用HumanoidPF 构建一个紧凑且与任务相关的视觉观测。它在K = 13 个身体部位上进行采样

\text { OBS }{ }_{\text {Field }}=\left\{\mathbf{F}_{H}\left(\mathbf{x}_{k}\right) \mid \mathbf{x}_{k}\right\}_{k=1}^{K}

其中,每个\mathbf{F}_{H}\left(\mathbf{x}_{k}\right)编码了由障碍物和目标在身体部位k 处诱导的局部方向引导,指示无碰撞运动

在关键身体部位对这些场进行采样,指定了人形机器人应如何引导其身体穿过环境,从而使策略能够基于通行决策进行推理,而不是从原始视觉数据中进行隐式推断原论文在第IV-A 节中对这一点进行了实证验证

  1. 用于观测的 HumanoidPF 通过将环境表示为一个连续的、空间聚合的场,进一步减轻了感知层面的仿真到真实(sim-to-real)差距,该场起到类似低通感知滤波器的作用
  2. 不同于保留细粒度几何细节且对局部微小扰动高度敏感的原始传感器表示,这种场的建模方式能够抑制孤立噪声,同时保留与穿越任务相关的主导空间梯度

因此,如第 IV-C 节中的实证结果所示,在真实世界部署时,细小的几何变化不会显著影响控制

用于策略奖励的HumanoidPF

为了简化奖励工程,作者采用HumanoidPF 来诱导具有前瞻性和密集性的指导,这种指导能够泛化到各种环境中

在每个时间步长,HumanoidPF 编码出期望运动方向的分布,策略则被优化以产生与该分布一致的动作,从而促进安全且灵巧的避碰行为

von Mises-Fisher (vMF) 分布用于在单位球面上对方向偏好\boldsymbol{\mu}(\mathbf{x}) \in \mathbb{R}^{3}进行建模,并且允许通过单个集中参数\kappa(\mathbf{x}) \in \mathbb{R}来控制这种偏好的强度:

p(\hat{\mathbf{v}} \mid \boldsymbol{\mu}(\mathbf{x}), \kappa(\mathbf{x}))=C_{d}(\kappa) \exp \left(\kappa(\mathbf{x}) \boldsymbol{\mu}(\mathbf{x})^{\top} \cdot \hat{\mathbf{v}}\right)

其中,\hat{\mathbf{v}}表示人形身体部位的运动方向,C_{d}(\kappa)是归一化函数

\mu(\mathbf{x})\kappa(\mathbf{x}) 直接从 HumanoidPF 推导得到

\boldsymbol{\mu}(\mathbf{x})=\frac{\mathbf{F}_{H}(\mathbf{x})}{\left\|\mathbf{F}_{H}(\mathbf{x})\right\|}, \quad \kappa(\mathbf{x})=\kappa_{\max }\left\|\mathbf{F}_{H}(\mathbf{x})\right\|

其中\kappa_{\max } 是一个缩放因子。优先级较高的身体部位将接收到幅值更大的场向量\mathbf{F}_{H}(\mathbf{x});相应地,\kappa(\mathbf{x})会增大,以加强与\mu(\mathbf{x})的一致性;而对于优先级较低的身体部位,则相反

这样的优先级感知聚焦设计促进了全身动作的协调,同时提升了避碰行为,如图3 (b) 所示

// 待更

Logo

DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。

更多推荐