找回密码
 立即注册
查看: 202|回复: 0

情人节暴击!下跪求婚的可以是机器人了

[复制链接]

4077

主题

535

回帖

1万

积分

论坛元老

积分
12921
发表于 2026-2-17 17:32:32 | 显示全部楼层 |阅读模式
Jnjun6emJm2u2Kc6.jpg 0 x% s8 l  I, _8 x& t* ?/ t1 G
# U7 y, n8 \- {& {  k
7 c. X6 h& {% i" ]" u2 t
这个情人节,Unitree G1 人形机器人解锁了 “求婚” 新技能。
7 F! R( r. o/ ]9 X cAzmEJjxHoTmQo3h.jpg 1 o$ F8 j4 w+ c' P! [! l8 T  l

) B: D2 E% p" \* D3 ^
, C. P" m9 g) P- U4 R) V! p! d在人类眼中充满仪式感的求婚动作,对于机器人来说其实是颇具难度的全身操作任务:既要维持重心稳定,又要保证手部动作的精准,这对机器人的全身协调能力提出了不小的考验。
, B+ M7 m! u8 A; V& p这一浪漫场景的背后,是清华叉院、上海期智研究院、千寻智能与上海交通大学联合团队的最新研究成果 ——HuMI (Humanoid Manipulation Interface),一个集成了人形机器人便携式数据采集与多样化技能学习的通用框架:研究人员不再受困于繁琐的遥操作或昂贵的动捕环境,只需佩戴简单的追踪设备,就能高效教会人形机器人协调全身,完成复杂的操作任务 。
3 g$ u( h7 ~$ E2 S6 }0 E/ Q H2c287v3VO6T7r67.jpg - R9 a& q. A. H) @6 O
4 _1 \" `6 Y: Y3 Z

. w/ k& Q) v9 _* u) N0 p$ @  U" ]7 C$ k4 z' f6 s  ~4 ~+ x0 ?
    / C  k7 \; f) i# P9 J
  • 论文标题:Humanoid Manipulation Interface: Humanoid Whole-Body Manipulation from Robot-Free Demonstrations& O: Y# G/ s7 n
  • 论文链接:http://arxiv.org/abs/2602.06643& ?$ @. Y) X& g  J0 c, x
  • 项目主页:https://humanoid-manipulation-interface.github.io' `$ |" B# n# d
& H5 s, }% B8 @0 v1 }" x
教人形机器人学会全身操作,难在哪里?
5 }. M/ N$ _& v0 I4 {1 {
尽管遥操作是目前获取数据的主流方案,但其采集效率低下,对操作员的经验要求也较高;同时,由于无法脱离实体机器人,采集场景往往局限于实验室内部,难以获取支撑泛化的多样性数据。
4 i4 a/ D6 s0 G  P: m9 [1 l/ S相比之下,虽然 UMI 的 “无真机” 数采方案在机械臂上大获成功,但直接迁移到人形机器人时却面临如下难题:
" N+ q2 C8 Q  H" f& X
5 G3 X) a% V0 ]+ ^3 j
    6 N5 e2 ?2 M+ ~7 V) J5 w
  • 演示信息缺失:仅记录手持夹爪部轨迹无法约束全身姿态,机器人不知道向下抓取时该 “弯腰” 还是 “下蹲”;
    " u/ n1 E2 y, N
  • 人机构型差异:人与机器人的身体比例不同,简单的尺寸缩放会导致机器人与交互物体的空间错位;% L0 X7 z( I0 Z; }) r  v4 i. x
  • 执行误差干扰:与机械臂的高精度不同,人形机器人的底层控制器往往存在较大的跟踪误差,导致高层策略规划的轨迹与实际执行脱节。* a. z# M7 p" T3 @

* e. |3 Z1 `1 p# v Zdkl502jK56rJmDl.jpg
% K- M' u# e1 Q, i7 G# R$ p) P& P
7 |4 y# [3 x0 T& ~
% k' E7 p) X  y3 B2 q) N8 b
HuMI 系统的核心技术
& R: E/ @8 @- p3 p- M4 K
针对人形机器人数据采集难、效率低的痛点,团队提出了 HuMI 系统。该系统通过硬件、交互与算法的协同设计,实现了低成本、高效率的人形机器人全身操作策略学习。
% \! O4 O; }4 e1. 硬件设计:便携式穿戴设备
5 c  Y/ T# c0 g2 [5 B采集数据时,操作员仅需手持两个带有鱼眼 GoPro 相机的 UMI 手柄,并在手柄上、腰部和双脚佩戴 5 个 HTC Ultimate VIVE 追踪器。有了这套便携的设备,无需将笨重的实体机器人搬运到现场,即可在楼道、大堂等各种环境中采集全身动作数据,极大降低了数据获取的门槛。
7 O! J1 w! d; z/ n0 u3 B7 I2. 数据采集:实时逆运动学预览
, [3 {, v6 N: O& h+ A: x1 f3 \ PgisBKhiKvgOaKIi.jpg
5 G% J9 C  A. f) m. r3 S" Y8 t) x, ^. ~4 {  B& I& M$ R1 n& f
/ f$ N9 H6 X8 P# P) t  w
为了解决人机身体构型差异导致的动作不可用问题,HuMI 提供了实时逆运动学(IK)预览。采集数据时,操作员可以通过屏幕观察虚拟机器人做出对应动作的效果。如果人的动作超出了机器人的物理极限,操作员能立刻发现并调整姿态,从而确保采集到的数据物理可行。此外,重定向后的全身数据也会进一步用于底层控制器的训练。" j, `& N. c2 d! K; R: @5 t
3. 算法架构:分层控制策略
& J; h' g1 c7 x0 ?& q4 z2 h jeZerIz67MEA5rMr.jpg
- Z" T* U) W' ~3 B& d0 N+ k' Y/ ~  O* W. N" F/ Q4 K

) g" w7 k1 [/ H+ J* G% ~: {HuMI 采用高低层协同的分层式控制架构,通过精心设计的接口层将规划与控制模块有机串联,共同完成复杂的全身操作任务:
$ I1 W; u' a9 U! {' b$ h) {/ W; l- ^* {( F# Q# I  S/ ?6 f

    " c+ `$ u& I' L0 g
  • 高层规划策略:基于 Diffusion Policy,利用手腕相机的视觉输入规划全身关键点轨迹;& z$ b( l/ g- E5 ]+ E
  • 底层控制策略:通过强化学习训练。在训练阶段,HuMI 设计了自适应的手部跟踪奖励,并引入了变速增强训练,使机器人能同时兼顾全身的协调平衡与手部的精准操作。7 c) C% a7 c7 h- b' N. q" m) U

- @8 l  ~+ u6 l9 ?
实验表现:多维任务验证
( |/ E6 i3 G$ Y
团队在 Unitree G1 人形机器人上进行了多方面测试,从任务能力、泛化表现和采集效率三个维度验证了系统的有效性:
6 z1 m9 n! y  K5 b# {1.任务能力:HuMI 成功实现了五项颇具挑战性的全身操作任务:求婚(单膝下跪)、拔剑出鞘、投掷玩具、上前清理桌面以及下蹲拾取,展现了双臂协同、高动态、长距离移动操作等多方面能力,且均达到了 75% 以上的成功率。实验证明,机器人能够流畅地完成大幅度重心转移和精细的手部动作,保持了极高的平衡稳定性和动作连贯性。
6 p+ T, T0 K9 b% H  ]( p# B2 \/ I
5 U$ @7 b- X4 Q7 B1 h2.泛化表现:凭借便携硬件随时随地采集数据的优势,HuMI 能够轻松覆盖各种真实场景,为策略的泛化性打下了坚实基础。在下蹲拾取这一任务上的实验结果显示,机器人在会议室、电梯间、走廊等未见过的场景,面对未见过的瓶状物体时,仍能保持 70% 的任务成功率。上述实验表明,得益于便携式设备带来的数据采集规模与多样性,策略在复杂环境下具有出色的泛化能力。9 ]; p6 j: y9 A# x! v& v, f
c73J8CZ05nAspYCT.jpg + p/ `* F) i! j9 t( ]" a% ?# C/ H

5 y: z8 j0 F8 K3 d) V/ _" z4 h! I8 o  h5 r. ?7 E( G
3.采集效率:与传统遥操作模式相比,HuMI 在数据收集效率上展现出显著优势。由于摆脱了对机器人真机的依赖,系统的数据采集吞吐量提升至传统方式的 3 倍 —— 以拔剑任务为例,仅需 15 分钟即可快速收集 60 条有效演示数据。此外,HuMI 还扩展了动作采集的边界:在遥操作中,若底层控制器不支持单膝下跪等高难度动作,操作员便无法进行数据采集;而 HuMI 则能够摆脱真机限制,先行采集这类复杂动作。
3 x# f- l) ~" z! w$ l+ i; O
$ n' S) I0 h0 O8 `2 y5 n' I4 i! {3 PHuMI 的核心价值在于打破了数据采集对机器人实体的依赖。通过全新的数据采集方式,HuMI 大幅降低了人形机器人数据的获取门槛与成本,在显著提升学习效率的同时,也为开发更具泛化性的通用人形机器人技能提供了有力支持。+ h$ ?* p, {- ]# b0 s+ ?6 `
关于作者7 S- x; s4 ^, k
该项目有三位共同一作:佴瑞乾,郑博远,赵俊铭。4 Z* ]# ]1 p" T9 J  l9 ]. z# _( q& J) |
SF0pc33p0u0gd6Vg.jpg
4 c; c" K2 S8 Y2 X. `# _  b6 v( e4 h
3 r7 i* u# Z" O/ w, B/ @2 U! w
佴瑞乾是清华大学交叉信息研究院的四年级博士生,导师为高阳教授。他的主要研究方向为具身智能,致力于通过大规模数据使机器人能够感知、推理和学习。佴瑞乾已在 ICLR, ICRA, AAAI, NeurIPS 等多个机器人学和机器学习顶会发表论文,研究项目涵盖人形机器人,VLA,四足机器人等多个方向。
3 C; [* `$ G. A( J( I YOOJ66ohvLFl6NH7.jpg 7 O+ [* s5 C4 N3 B
6 P$ F. f6 i( V  t+ Z9 K4 X* o1 B

0 Y# U8 R6 d0 c7 J. N& g郑博远是清华大学交叉信息研究院的一年级博士生,导师为高阳教授。他的主要研究方向为具身智能,目前专注于通过人形机器人的全身协同控制,实现复杂多样的移动操作任务。郑博远已在 CoRL、ICLR 等多个机器人学和机器学习顶会发表论文。
7 _9 W8 Q% C( ]1 ^% _. _- o7 Q T8v00OOQ8Pv8bpbV.jpg
4 R1 k9 G/ g* W. X8 k
  }- k* `6 i& u/ d: W5 v  ~' W# k
4 l2 P, G4 `% ]  c" _$ u8 h' M赵俊铭是清华大学交叉信息院(IIIS)的一年级博士生,导师为高阳教授。他的研究聚焦于具身智能,致力于赋予机器人更通用和鲁棒的操作能力。他重点关注机器人操作数据的高效扩展及人形机器人的移动操作。此前的工作包括高效泛化的插入装配模型,以及融合自适应推理的 VLA 模型等。  k* g; u0 ~6 w* ?, p4 G
aBDw118C9FDB2iwC.jpg
+ Y& U( q! s$ e% H4 e) c6 Y+ h" H% j
9 g+ i& ]7 A) E$ ]4 ^
项目的通讯作者是清华大学交叉信息研究院助理教授、千寻智能联合创始人高阳,他主要研究计算机视觉与机器人学。此前,他在美国加州大学伯克利分校获得博士学位,师从 Trevor Darrell 教授。他还在加州伯克利大学与 Pieter Abbeel 等人合作完成了博士后工作。在此之前,高阳从清华大学计算机系毕业,与朱军教授在贝叶斯推理方面开展了研究工作。他在 2011-2012 年在谷歌研究院进行了自然语言处理相关的研究工作、2016 年在谷歌自动驾驶部门 Waymo 的相机感知团队工作,在 2018 年与 Vladlen Koltun 博士在英特尔研究院在端到端自动驾驶方面进行了研究工作。高阳在人工智能顶级会议 NeurIPS,ICML,CVPR,ECCV,ICLR 等发表过多篇学术论文,谷歌学术引用量超过 5000 次。
集群智慧云科服专利申请服务
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则


快速回复 返回顶部 返回列表