UniTac-NV开源:实现Xela与Contactile触觉传感器数据统一的新框架
在机器人感知领域,触觉传感器种类繁多,但算法往往高度依赖特定硬件,限制了技术复用与迁移。针对这一挑战,IROS 2025论文《UniTac-NV: A Unified Tactile Representation For Non-Vision-Based Tactile Sensors》提出了一种通用解决方案,并同步开源高质量对齐数据集UniTac-NV,为开发者和研究者提供实用工具。
UniTac-NV数据集发布实现非视觉触觉传感器数据统一表征
该工作核心在于设计一个编码器-解码器架构:每个传感器(如Xela uSkin和Contactile PapillArray)拥有专属编码器,将原始信号映射至共享的传感器无关潜在空间。通过在相同接触条件下采集匹配数据(例如UR5e机械臂以恒定力按压同一物体),模型可隐式学习跨传感器对齐关系。实验显示,即使面对训练中未出现的复杂物体,该框架仍保持良好泛化能力。
数据采集覆盖三类几何体(圆柱、方柱、六角柱)及两种材料(PLA硬质、TPU软质),确保多样性。更关键的是,下游任务(如接触点几何估计)仅需在一种传感器的潜在表示上训练,即可直接应用于另一传感器,无需微调或重训——这对降低算法部署成本具有实际意义。
值得一提的是,UniTac-NV并非纯科研产物。自2025年起,其子集已被纳入伦敦帝国理工学院电子与电气工程系高年级“模式识别”课程,作为真实多模态数据处理案例,帮助学生理解跨域表征学习。
对于从事机器人触觉、人机交互或具身智能开发的工程师而言,该数据集提供了:
- 标准化的Xela触觉传感器与Contactile触觉传感器同步数据;
- 完整的物体CAD模型与实验协议;
- PyTorch训练脚本与对齐示例代码。
引用链接:
数据集地址:https://github.com/JiannnH/UniTac-NV
论文地址:https://ieeexplore.ieee.org/document/11247617
欢迎关注 “欣佰特科技” ,持续为大家带来 “具身智能领域”前沿技术及应用!详情可邮件咨询sales@cnbestec.com
