FeelAnyForce 突破标定瓶颈,GelSight Mini 成视触觉通用模型核心基准

马里兰大学与意大利理工学院联合团队推出 FeelAnyForce 模型,成功突破视触觉传感器 “一机一标定” 的行业瓶颈,依托Gelsight Mini完成基准训练,实现Gelsight 视触觉传感器与 Digit传感器的高效跨设备适配,显著降低触觉感知部署成本。

 

 

一、行业痛点:单设备标定耗时且无法迁移

当前Gelsight 视触觉传感器、Digit 等主流设备,将触觉图像转换为力信号时,需针对单台设备单独标定数日,流程繁琐且模型与设备强绑定,无法跨设备复用,制约机器人触觉感知规模化落地。

 

二、核心突破:学习 “形变⇋力” 底层物理规律

FeelAnyForce 摒弃传统单设备标定思路,聚焦视触觉传感器共通的光学成像原理与 “形变⇋力” 转换逻辑,让 AI 学习底层物理规律而非设备专属特征。

研究团队以Gelsight Mini为基准平台,搭配 UR 机械臂与六维力传感器搭建自动化采集系统,完成20万组真实数据采集,覆盖点/边/面多类接触场景。

 

 

 

三、关键技术:双任务学习 + 渐进式适配

 

  1. 数据采集:采用 10 种 3D 打印压头开展多角度压痕测试,保障模型学习通用接触规律
  2. 模型设计:力预测 + 深度重建双任务学习,强制编码器提取物理本质特征
  3. 训练策略:DINOv2 预训练 ViT 主干→真实数据微调→跨设备小样本适配,Gelsight Mini领域内力估计误差降至 4.2%

 

四、为什么选用GelSight Mini做基准?

  1. 深度原生:独创光度立体法搭配透明凝胶体系,具备微米级精度,且与材料无关,是模型深度监督设计的关键基础。
  2. 机械一致:凝胶同心度<0.5mm,3×3 交叉验证误差稳定在 4.2%-6.3%,为 20 万组样本采集与跨设备泛化提供可靠数据保障。
  3. 学术认可:获全球顶尖实验室采用,支持 ROS/PyTouch 原生对接,5 分钟即插即用,技术成熟度高。
  4. 成像优质:可拍摄微米级超清触觉图像,精准捕捉凝胶形变信息。

 

、实验验证:跨传感器性能稳定

  • 同设备:Gelsight Mini 归一化 L1 误差 4.2%
  • 换凝胶:Gelsight Mini 误差稳定 4.2%-6.3%
  • 跨传感器:迁移至 Digit 误差 9.2%,远优于传统 ResNet 架构的 53.4%

模型可直接回归 0-15N 范围 3D 力向量,在静态测试、推物称重、易碎品抓取等场景表现稳定。

 

、行业价值

该研究为跨传感器力标定提供全新范式,通过挖掘物理规律构建可泛化表征,为机器人通用触觉感知发展奠定基础,助力视触觉技术在机器人精密操作、智能抓取等场景落地。

 

论文链接:https://arxiv.org/pdf/2410.02048.pdf

项目主页:http://prg.cs.umd.edu/FeelAnyForce

 

 

 

文章详情

 

创建时间:2026-03-23 11:05

信倍通科技(北京)有限公司

 

ICT Tech (Beijing)Co., Ltd