|
|
如果机器人能长出一只猫的爪子、一条章鱼的触手,甚至是大象的鼻子,它们的触觉会是什么样子?它们能用这些仿生结构感知物体的纹理、力度和滑动,像生物一样自适应地与环境互动吗?9 x. T( I C0 o6 B4 O
这听起来像科幻,但一个名为SimTac的仿真平台正把它变成现实,近日,伦敦国王学院、北京理工大学、伦敦大学学院和葡萄牙INESC TEC研究所的团队在期刊《Cyborg and Bionic Systems》上发表论文,提出了一个能够模拟任意形状视觉触觉传感器的物理仿真框架。
! U0 t2 b8 k u: e, i8 y* t! w! j它让机器人触觉传感器第一次可以“长成”任何生物形态,并在虚拟世界中提前感知它们的触觉体验,这种方法可以将触觉系统的设计和训练时间大幅缩短。1 B# L6 d4 I# J) X, [3 G! i
3 p, K3 L; K V0 b# u
* _ c( N2 w0 n3 ] U" a7 w2 [" ^/ }+ E$ }( l4 _) u
01.
& f5 k$ V- R5 w+ G触觉传感器的“形体危机”
3 }+ @" E7 c# R7 j$ Z' P( e“虽然人脑天生就知道抓取草莓和棒球棒之间的区别,并施加不同的力度,但机器人却不具备这种能力。”论文作者、伦敦国王学院机器人与人工智能教授Shan Luo说,“这导致机器人在处理各种复杂形状时遇到困难。”/ D0 Q$ E5 T8 T, [. q
生物的触觉与形态密不可分:人类手指有柔软的指腹和关节,猫的爪子有弹性肉垫,章鱼触手布满吸盘,大象鼻尖有两根指状突起能捏夹持和抓取各种物体。这些复杂结构赋予了它们与环境交互的非凡能力。
0 K, w- X% c' H; n反观机器人领域,主流的视觉触觉传感器,将相机藏在软胶皮下,通过拍摄接触变形来感知触觉。绝大多数只有两种形状:平面方块或半球。即便有少数手指形状的传感器,也往往需要反复试错、多次硬件迭代才能勉强工作。9 U; p; M3 @$ w. [5 [4 b; N
为什么?因为复杂曲面带来的挑战太大了。5 x/ r/ @; D% L0 u
与简单几何形状不同,自然和有机形态具有更复杂的几何结构,使得传感器在接触物体时产生的形变难以建模和估计。更麻烦的是,要在这些曲面内部集成摄像头和LED灯,还要保证光线路径可控、接触区域成像清晰,几乎是不可能完成的任务。
0 R4 u! x1 C- v5 i而基于学习的机器人感知方法又需要海量数据,靠真实传感器一个一个采集,成本高、周期长,传感器磨损了都未必够。# I7 k# A: t6 P4 E9 j
02.7 @- ~1 D1 U1 c7 T
SimTac:让触觉传感器“任意生长”, }6 \* c" {7 Z2 ]! \# C
面对这些难题,研究团队给出的答案是:SimTac,一个基于物理的视觉触觉传感器仿真器。它的核心目标只有一个,让触觉传感器可以拥有任意复杂的仿生形态,并在虚拟世界中精确模拟其触觉响应,进而把设计和迭代从物理世界搬进数字世界。
: L- x: S2 d+ k- z" a1 pSimTac由三大模块构成,分别解决了“任意曲面”下的三个核心难题,形成一个完整的仿真闭环。
4 P i* d v; g% p+ u* B5 g第一,粒子形变仿真。他们把传感器的软胶皮离散成无数个粒子,每个粒子都带有质量、动量、应力等物理属性。当物体接触时,采用“物质点法”迭代计算每个粒子的运动。这样一来,不管传感器是弯曲的象鼻、有肉垫的猫爪,还是带吸盘的章鱼触手,都能准确模拟变形。; W0 N Y$ E3 {$ z
第二,光场渲染。SimTac提前计算两种光场,沿直线传播的线性光场和沿曲面传播的非线性光场,再结合冯氏光照模型(Phong's model)实时渲染出触觉图像。结果很显然:仿真图像与真实图像几乎无法区分。( V& Q9 E ?; ~
第三,神经网络力预测。光有图像不够,机器人还需要知道接触力的分布。用传统的有限元法(FEM)算力,网格一密就慢得无法实时。SimTac的解决方案是:让MPM算变形,把变形数据喂给“稀疏张量网络”(STN),网络输出与FEM精度相当但速度快得多的力场。
3 J% o8 o, m4 q7 j$ x这三块拼起来,SimTac做的不是换个形状接着仿,而是把任意形状这件事,从不可能变成了可能。3 G( c( D1 u/ x6 p& o
8 }' d4 L7 w2 s) e0 _% g8 J9 o# b3 O9 ]2 I9 Q9 {1 ]
8 H8 i3 s D0 r$ B
通过 SimTac 连接生物和人工触觉传感
0 x2 z3 Y6 S6 n- X @/ ?$ g03.
$ _* G- K& ^. ?3 c k( Y9 a% q从象鼻到猫爪:仿真和现实对上了
+ W& l! C# q( X/ ` W' P& X9 cSimTac最直观的展示,是它能模拟什么样的形状。研究团队一口气展示了四种生物形态的传感器。2 O a d/ ^" N3 v. d" J
人类手指:高曲率、全方位感知表面,已有GelTip传感器作为实例;
6 {7 j2 T' k- d6 N+ B* {0 Q( P* @# b1 E猫爪:带有肉垫结构的复杂曲面;' H) ?. C3 m! c: B. B
章鱼触手:柔软、带吸盘的管状结构;9 x7 q# X: F' ?. {- E7 x' W
象鼻:尖端有两个“手指”状突起,能捏取物体。
: _% Q# C- U0 L1 R. K8 w. X8 D: h
8 Q, K4 Z z% {6 a& s3 ?3 M: w- q( V4 V5 K& ?" j( s
. [5 q& \& U: m' q% I; P" ]
他们甚至真的按照仿真设计,制作了一个象鼻形状的触觉传感器。流程是这样的:先在SimTac里设计硅胶膜、指定LED和摄像头参数、定义驱动面和接触条件,然后生成触觉反馈图像。接着,按照仿真参数去3D打印模具、浇筑硅胶、涂反射层、装配,一个仿生象鼻触觉传感器就这样从虚拟世界“走”了出来。9 H! I& }8 e6 J! y, q+ z
; H' I2 B) s: P. |
3 C+ J, s) p% D4 X2 L/ ?( r) n# H/ w1 N5 a0 T# V
对比仿真和真实的触觉反馈:物体接触时,变形区域的光影变化、象鼻“手指”闭合时的主动变形过程,两者高度一致。SimTac甚至能模拟传感器在执行抓取动作时的主动形变,这是以往仿真工具从未做到的。
# d% B; \& W$ S# I6 Y. C04.' E8 J) q" Z$ L U1 n8 d
虚拟数据,解决真实世界的难题* v: T) ?3 ?1 N2 s3 v h* x
能做新奇形状固然好,但仿真更务实的价值是:生成训练数据,然后迁移到真实任务中。研究团队在手指形状的GelTip传感器上,测试了三个典型的触觉感知任务:9 Z9 F9 n4 {0 y4 v9 L2 H4 A3 P) K
任务一:物体形状分类。
: n& A( s( B* W3 f" g$ d6 \$ o用仿真图像训练ResNet50模型,然后零样本迁移到真实传感器。Sim2Real准确率97.0%,只比Sim2Sim(100%)低三个百分点。误分类主要发生在形状相似的物体上,比如平板压头和轻微曲面,广角镜头造成的畸变让它们看起来更接近。
) S. F" L) P, w' S任务二:滑移检测。( F8 F! W! }2 p" z/ u8 L' Q' m
输入8帧连续的触觉图像,判断物体是否在滑动。滑动的关键特征是:物体轮廓在动,但传感器表面的标记点几乎静止。Sim2Real准确率92.06%。这个任务在真实世界做代价挺大,滑动的物体可能会刮伤传感器那层薄薄的反光膜。4 m! f8 N0 o9 K( e- a9 @7 i2 c$ ~
任务三:接触安全评估。
7 D2 x# e' z2 f. Z" o8 q9 E1 |用触觉图像预测安全系数。Sim2Real的平均绝对误差0.105。误差来源很真实:3D打印的真实物体有仿真里没有的表面纹理;压深增加时图像整体变暗;部分接触超出相机视野。' V: s( D2 \6 l2 ^0 a
7 L) ^3 i) s# T( b2 M( g
4 J% \- {! v) P0 f# D2 I+ H! m. Y" H" K: I: E5 r
基于触觉的 Sim2Real 任务性能评估
7 Z. P. a' C |) A5 h这些任务之所以能用仿真数据做,前提是SimTac把“任意形状下的触觉信号”算准了。先有精准的仿真,才有可信的迁移。1 M- l; A. K* W
05.
8 D$ V; U5 i# X9 @) z) f( Y6 W未来:机器人触觉,从“形似”走向“神似”8 G3 K& Z( e# C
SimTac的出现,填补了一个明显但长期被忽视的空白:视觉触觉传感器的仿生形态设计工具。
* S7 ?% E5 c) @, C w( o: d过去二十年,触觉传感器从单点、阵列进化到视觉式、高分辨率;形状从方块、半球进化到手指形。但再往前,章鱼触手、象鼻、猫爪,缺乏设计工具和数据生成手段,进化不动了。
9 s5 I- c$ ]- o9 d1 o4 T* ?. ]; q) s6 H
SimTac的逻辑是: 借助仿真预先对复杂形状传感器进行建模,渲染和力学预测,避免在现实环境中试错,从而缩短设计周期。在这个框架里“长”出想要的形态,看它如何感知世界,然后拿去真实世界制造。; @5 g* ^- T ~2 t, J. T7 v
“这极大地拓展了设计空间,并能让我们以极短的时间创造出实体触觉机器人。”张旭阳说。
$ U, O* B' c' `8 W当然,它还有局限:神经网络的训练依赖FEM真值数据,对于全新形状的传感器,高网格密度的数据收集仍需要几天时间。团队下一步计划是优化数据收集效率,并向驱动器仿真、复杂动态接触扩展。未来的工作将集中于制造完全仿生触觉机器人,并在当前研究中展示的扩展设计和训练框架的基础上进行发展。
, b5 }6 ]3 u' x U R l6 q当机器人的皮肤可以长成任何形状,它们的感知和交互能力将迎来一次重要的拓展。未来的机器人,或许真的能像生物一样,用自己的“皮肤”去感受这个世界。
4 {2 s) x4 P* u论文链接:https://spj.SCIence.org/doi/10.34133/cbsystems.0510
6 L! t/ M4 C' g9 \4 s项目主页:https://xuyangzhang0223.github.io/SimTac/ |
|