机器人“手感”可迁移?新框架打通Xela触觉传感器与Contactile壁垒
近日,一项发表于IROS 2025的研究成果——《UniTac-NV:面向非视觉触觉传感器的统一触觉表征》正式开源其核心数据集 UniTac-NV,为机器人触觉感知领域提供重要基础资源。

该研究由侯 Jian、周 Xin、杨 Qihan 与伦敦帝国理工学院 Ad Spiers 共同完成,聚焦当前触觉算法难以跨硬件通用的问题。团队提出一种编码器-解码器架构,通过构建传感器无关的潜在空间,成功实现两种主流非视觉触觉传感器的数据对齐:Xela uSkin(uSPa 46)与Contactile PapillArray(即Contactile三轴阵列触觉传感器)。

实验中,研究人员将两款传感器安装于UR机械臂,对多种3D打印物体(含圆形、方形、六边形棱柱,材质包括刚性PLA与柔性TPU)执行标准化按压操作,并引入未见过的复杂物体以验证模型泛化能力。结果表明,经联合自编码器训练后,不同传感器在潜在空间中的接触数据可实现低误差对齐,且下游任务(如接触几何估计)模型无需重新训练即可跨传感器部署。


该数据集自去年起已用于帝国理工学院电子工程系“模式识别”课程教学,现向全球科研与教育社区开放。
引用链接:
数据集地址:https://github.com/JiannnH/UniTac-NV
论文地址:https://ieeexplore.ieee.org/document/11247617
创建时间:2026-03-20 23:24
