北京交通大学教授郭盛团队受人脑中的高层感知模型启发,提出了基于期望-实际匹配的感知-运动框架,并在集成传感的软体机器人中实现。日前,相关研究成果发表在《自然—通讯》上。
人脑中的高级感知模型将外部来源产生的传入感官信号和与自身行动相对应的期望感知信号结合起来,感知并引导人体运动。课题组供图
?
基于感知-运动机理,软体连续体机器人面对交互密集型任务时,可稳定感知自身状态以及与外界的碰撞信息。论文通讯作者郭盛告诉《中国科学报》,在软体机器人中实现这种高层次的感知-动作框架还面临着两大难题:首先,软体机器人如何稳定准确地区分外界交互和内部驱动产生的材料形变;其次,如何实现软体机器人系统的多模态感知。
研究团队突破了软体连续体机器人对自身及环境感知与交互关键技术,为研究感知密集型环境交互任务中的智能行为提供了新思路。他们提出了基于“期望-实际”匹配的“感知-运动“通用模型。
论文第一作者、北京交通大学机械与电子控制工程学院博士汪培义表示,具体而言,团队建立了双模块杆驱动软连续机器人的本体感知模型,介绍了集成传感双模块杆驱动软连续机器人中感知-运动回路的详细实现,测试了多段式柔性传感器在仅施加外部刺激而不驱动、仅驱动而不施加刺激、驱动后施加刺激三种情况下的性能表现。结果表明其能准确反映内外刺激造成的局部应变。
团队还进行了本体自感知、交互检测及形变源区分。结果表明,无论外部和内部动作是单独还是同时进行,通过实时感知并匹配“预期-实际”形状,平均误差为1.4%,机器人系统在感知-驱动环路中快速0.4秒内检测到接触并区分变形源。
软体机器人系统还展示了在静态和动态构型中对动静态交互力方向及大小的感知。实验表明,所提出的方法能准确感知接触方向及力大小,方向误差约为10°。对不可视环境中的地形和交互力进行感知与分析,实现了不可视环境中的交互力和形状检测。
复杂迷宫的探索过程。课题组供图
?
操作员手动教导。课题组供图
?
团队设计了两个实验场景。第一个场景实现了软体机器人主动交互下的环境自主探索。第二个场景是软体机器人被动交互下的自主学习与适应,让软体臂通过与操作员的被动交互开展自主学习与重复的任务。结果显示交互点位置和力曲线与示教期间记录的几乎相同。(来源:中国科学报 温才妃 唐薇)
相关论文信息:https://doi.org/10.1038/s41467-024-54327-6