File size: 20,002 Bytes
c3788dc |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 |
---
license: cc-by-nc-sa-4.0
---
# LET:全尺寸人形机器人真机力觉触觉数据集
<div style="display: flex; justify-content: space-between; align-items: center; width: 100%;">
<div>
<a href="https://huggingface.co/datasets/lejurobot/let_dataset">
<img src="https://img.shields.io/badge/Huggingface-FF6B35?style=for-the-badge&logo=huggingface" alt="Huggingface">
</a>
<a href="https://www.modelscope.cn/datasets/lejurobot/let_dataset">
<img src="https://img.shields.io/badge/Modelscope-1890FF?style=for-the-badge&logo=alibabacloud" alt="Modelscope">
</a>
</div>
</div>
中文 | [English](README_EN.md)
<div style="font-size:1.1em; max-width:800px; margin: 0 0 16px 0; text-align: left;">
<b><span style="color:#000000">LET数据集</span></b> 基于全尺寸人形机器人 <b><span style="color:#1890FF">Kuavo 4 Pro</span></b> 采集,涵盖多场景、多类型操作的真实世界多任务数据。面向机器人操作、移动与交互任务,支持真实环境下的可扩展机器人学习。
</div>
<a id="更新"></a>
## 📰 更新
- 2025-12-19:🆕 新推出全新触觉灵巧手与外骨骼遥操数据 🖐️🦾
## 📋 目录
- [LET:全尺寸人形机器人真机数据集](#let全尺寸人形机器人真机数据集)
- [📰 更新](#-更新)
- [📋 目录](#-目录)
- [✨ 核心特性](#-核心特性)
- [🤖 硬件平台](#-硬件平台)
- [机器人本体](#机器人本体)
- [灵巧手与遥操设备](#灵巧手与遥操设备)
- [🚀 使用指南](#-使用指南)
- [工具仓库](#工具仓库)
- [🎬 任务与数据内容简介](#-任务与数据内容简介)
- [语义标签](#语义标签)
- [数据统计](#数据统计)
- [📦 数据集](#-数据集)
- [数据集目录结构](#数据集目录结构)
- [数据格式](#数据格式)
- [ROSbag数据格式](#rosbag数据格式)
- [标注格式](#标注格式)
- [📥数据资源获取](#数据资源获取)
- [📋 数据交流群](#-数据交流群)
- [📝 引用](#-引用)
- [📄 许可证](#-许可证)
<a id="核心特性"></a>
## ✨ 核心特性
- 大规模、真实世界、全尺寸人形机器人多视角多模态数据,持续更新
- 覆盖工业、家庭、医疗、服务等多个领域,包含31项子任务场景
- 涵盖抓取、双手操作、工具使用等117种原子技能,累计时长超1000小时
- 数据经专家标注与人工验证,确保高质量
- 提供从数据转换、模型训练到推理验证的完整工具链
<a id="硬件平台"></a>
## 🤖 硬件平台
### 机器人本体
<div align="left">
<img src="docs/images/kuavo4pro.png" alt="kuavo" width="200" style="display:inline-block; margin-right: 10px;">
<img src="docs/images/kuavo_wheel.png" alt="kuavo_wheel" width="200" style="display:inline-block;">
</div>
主要硬件平台为 **Kuavo 4 Pro** 及其轮式版本,具备以下特性:
- **机器人参数:** 高度 **1.66 米**,重量 **55 公斤**,支持不停机电池更换
- **运动控制:** 40 个自由度,最大行走速度 **7 km/h**,支持双足自主 SLAM
- **泛化能力:** 支持多模态大模型接入(如盘古、DeepSeek、ChatGPT 等),具备 **20+ 原子技能**
### 灵巧手与遥操设备
<div align="left">
<img src="docs/images/linker_ta.png" alt="linker_ta" width="200" style="display:inline-block; margin-right: 10px;">
<img src="docs/images/linker_tg.png" alt="linker_tg" width="225" style="display:inline-block; margin-right: 10px;">
<img src="docs/images/linker_hand.png" alt="linker_hand" width="195" style="display:inline-block; margin-right: 10px;">
<img src="docs/images/linker_ffg.png" alt="linker_ffg" width="210" style="display:inline-block; margin-right: 10px;">
</div>
*注:以下设备介绍按图片从左往右顺序排列*
- **Linker TA**: 14自由度遥操作臂,精准映射人体双臂运动轨迹,实现高精度动作捕捉。
- **Linker TG**: 高精度柔性遥操作手套,实时捕捉手部轨迹与指节动作,支持精细操控。
- **Linker Hand L6**: 高精度仿生机械手,采用“6主动+5被动”关节设计,兼具高刚性与轻量化。
- **Linker FFG**: 专业级力反馈交互手套,集成高精度运动捕获与抓握力反馈,打造沉浸式交互体验。
<a id="使用指南"></a>
## 🚀 使用指南
<a id="工具仓库"></a>
### 工具仓库
我们提供了完整的工具仓库,包含:
- **数据转换工具([**rosbag2lerobot**](https://github.com/LejuRobotics/kuavo_data_challenge/tree/main/kuavo_data))**:将 rosbag 文件转换为适合模型训练的格式
- **两种模仿学习模型:** **Diffusion Policy** 和 **ACT**
- **模型训练脚本**
- **代码与部署说明**,适用于真实机器人和仿真环境
详细内容请见开源仓库:[**kuavo_data_challenge**](https://github.com/LejuRobotics/kuavo_data_challenge) 🔥
<a id="任务与数据内容简介"></a>
## 🎬 任务与数据内容简介
本数据集覆盖汽车工厂、快消品、酒店服务、3C工厂、生活服务、物流等多种场景,包含多模态观测(RGB、Depth、关节等)与丰富的原子技能(如抓取、双手操作、工具使用等)。
<a id="语义标签"></a>
### 语义标签
LET数据集将复杂任务分解为一系列具有明确语义的原子动作步骤,采用规范标注方法,为每个任务提供子任务级别的时间轴与自然语言标注。
<div style="text-align: center;">
<img src="docs/images/Visualize Datasets.png" width="600">
</div>
每条数据配套多维度语义标签信息,包括:
- 物品标签:工业件、餐具、日用器具、药品等
- 技能标签:抓取、放置、旋转、推进、拉取、按压等
- 任务与场景标识:任务名统一编码,场景维度区分操作上下文语义
- 末端类型:分别记录夹爪、灵巧手执行动作
- 语言描述:如“从传送带抓取药盒并放置到指定托盘”,支持自然语言与动作对齐建模
<a id="数据集"></a>
## 📦 数据集
<a id="数据集目录结构"></a>
### 数据集目录结构
```text
.
└── rosbag
└── tactile
└── real
└── Labelled
├── Clean-up_desktop_items-P4-Linker_Hand_L6
├── SF_Express_Parcel_Sorting-P4-Linker_Hand_L6
├── Smart_postal_packages-P4-Linker_Hand_L6
└── Smartandfast-forward-P4-Linker_Hand_L6
```
<a id="数据格式"></a>
### 数据格式
#### ROSbag数据格式
<details>
<summary>Touch</summary>
| 主题名称 | Topic 名称 | 消息类型 | 主要字段/说明 |
|--------------------|------------------------------------------------|---------------------------------|--------------------------------------------------------------------------------------------------|
| <b>相机 RGB 图像</b> | <span style="color:#1890FF">/cam_x/color/image_raw/compressed</span> | <span style="color:#000000">sensor_msgs/CompressedImage</span> | x为h/l/r,分别为头/左腕/右腕相机;<br>header(消息头,含时间戳、序号、坐标系等),<br>format(图像编码格式),<br>data(图像数据)|
| <b>相机深度图像</b> | <span style="color:#1890FF">/cam_x/depth/image_rect_raw/compressed</span> | <span style="color:#000000">sensor_msgs/CompressedImage</span> | x为h/l/r,分别为头/左腕/右腕相机;<br>header(消息头),format(编码格式),data(图像数据)|
| <b>手臂轨迹控制</b> | <span style="color:#1890FF">/kuavo_arm_traj</span> | <span style="color:#000000">sensor_msgs/JointState</span> | header(消息头),<br>name(关节名称列表,14个关节,arm_joint_1~arm_joint_14),<br>position(关节目标位置,结构同下方原始传感器数据第12-25项)|
| <b>原始传感器数据</b> | <span style="color:#1890FF">/sensors_data_raw</span> | <span style="color:#000000">kuavo_msgs/sensorsData</span> | sensor_time(时间戳),<br>joint_data(关节数据:位置、速度、加速度、电流),<br>imu_data(IMU数据:陀螺仪、加速度计、四元数),<br>end_effector_data(末端执行器数据,当前未用)|
| <b>灵巧手位置(真机)</b> | <span style="color:#1890FF">/control_robot_hand_position</span> | <span style="color:#000000">kuavo_msgs/robotHandPosition</span> | left_hand_position(左手6维,0张开,100闭合),<br>right_hand_position(右手6维,0张开,100闭合)|
| <b>灵巧手状态(真机)</b> | <span style="color:#1890FF">/dexhand/state</span> | <span style="color:#000000">sensor_msgs/JointState</span> | name(12个关节名),<br>position(12个关节位置,前6为左手,后6为右手),<br>velocity(12个关节速度),<br>effort(12个关节电流)|
| <b>夹爪控制(真机)</b> | <span style="color:#1890FF">/leju_claw_command</span> | <span style="color:#000000">kuavo_msgs/lejuclawcommand</span> | name(长度2,left_claw/right_claw),<br>position(长度2,0张开,100闭合),<br>velocity(长度2,目标速度,默认50),<br>effort(长度2,目标电流,单位A,默认1)|
| <b>夹爪状态(真机)</b> | <span style="color:#1890FF">/leju_claw_state</span> | <span style="color:#000000">kuavo_msgs/lejuClawState</span> | state(int8[2],左/右爪状态,详见下方),<br>data(kuavo_msgs/endEffectorData,包含爪位置、速度、电流)|
| <b>仿真夹爪控制</b> | <span style="color:#1890FF">/gripper/command</span> | <span style="color:#000000">sensor_msgs/JointState</span> | header(消息头),<br>position(长度2,0张开,255闭合)|
| <b>仿真夹爪状态</b> | <span style="color:#1890FF">/gripper/state</span> | <span style="color:#000000">sensor_msgs/JointState</span> | header(消息头),<br>position(长度2,0张开,0.8闭合)|
| <b>机器人位置命令</b> | <span style="color:#1890FF">/cmd_pose_world</span> | <span style="color:#000000">geometry_msgs/Twist</span> | linear.x/y/z(世界坐标系下的平移,单位m),<br>angular.x/y/z(世界坐标系下的旋转,单位弧度)|
<details>
<summary>详细字段说明</summary>
- <b><span style="color:#000000">/cam_x/color/image_raw/compressed</span></b>、<b>/cam_x/depth/image_rect_raw/compressed</b>:
- header(std_msgs/Header):消息头,包含时间戳、序号、坐标系等信息
- format(string):图像编码格式
- data(uint8[]):图像数据
- <b><span style="color:#000000">/kuavo_arm_traj</span></b>:
- header:消息头
- name:关节名称列表,14个关节,命名为arm_joint_1~arm_joint_14
- position:关节目标位置,结构同下方原始传感器数据第12-25项
- <b><span style="color:#000000">/sensors_data_raw</span></b>:
- sensor_time(time):时间戳
- joint_data(kuavo_msgs/jointData):关节数据,包括位置、速度、加速度、电流
- 数据顺序:
- 前 12 项为下肢电机数据:
- 索引 0–5:左腿
(`l_leg_roll`, `l_leg_yaw`, `l_leg_pitch`, `l_knee`, `l_foot_pitch`, `l_foot_roll`)
- 索引 6–11:右腿
(`r_leg_roll`, `r_leg_yaw`, `r_leg_pitch`, `r_knee`, `r_foot_pitch`, `r_foot_roll`)
- 接下来的 14 项为手臂电机数据:
- 索引 12–18:左臂
(`l_arm_pitch`, `l_arm_roll`, `l_arm_yaw`, `l_forearm_pitch`, `l_hand_yaw`, `l_hand_pitch`, `l_hand_roll`)
- 索引 19–25:右臂
(`r_arm_pitch`, `r_arm_roll`, `r_arm_yaw`, `r_forearm_pitch`, `r_hand_yaw`, `r_hand_pitch`, `r_hand_roll`)
- 最后 2 项为头部电机数据:
`head_yaw`, `head_pitch`
- 单位:位置为弧度,速度为弧度每秒 (radian/s),弧度每平方秒 (radian/s²),电流为安培(A)
- imu_data(kuavo_msgs/imuData):IMU数据,包括陀螺仪(gyro,单位rad/s)、加速度计(acc,单位m/s²)、quat(IMU 方向)
- end_effector_data(kuavo_msgs/endEffectorData):末端执行器数据,当前未用
- <b><span style="color:#000000">/control_robot_hand_position</span></b>:
- left_hand_position(float[6]):左手6维,每个元素[0,100],0为完全张开,100为完全闭合
- right_hand_position(float[6]):右手6维,含义同上
- <b><span style="color:#000000">/dexhand/state</span></b>:
- name(string[12]):12个关节名
- position(float[12]):12个关节位置,前6为左手,后6为右手
- velocity(float[12]):12个关节速度,前6为左手,后6为右手
- effort(float[12]):12个关节电流,前6为左手,后6为右手
- <b><span style="color:#000000">/leju_claw_command</span></b>:
- name(string[2]):left_claw, right_claw
- position(float[2]):左右爪目标位置,[0,100],0张开,100闭合
- velocity(float[2]):目标速度,[0,100],默认50
- effort(float[2]):目标电流,单位A,默认1
- <b><span style="color:#000000">/leju_claw_state</span></b>:
- state(int8[2]):左/右爪状态,取值含义如下:
- -1:错误(执行异常)
- 0:未知(初始化默认状态)
- 1:移动中
- 2:到达目标位置
- 3:已抓取物体
- data(kuavo_msgs/endEffectorData):包含爪的位置、速度、电流,结构同/leju_claw_command
- <b><span style="color:#000000">/gripper/command</span></b>(仿真):
- header:消息头
- position(float[2]):左右夹爪目标位置,[0,255],0张开,255闭合
- <b><span style="color:#000000">/gripper/state</span></b>(仿真):
- header:消息头
- position(float[2]):左右夹爪当前位置,[0,0.8],0张开,0.8闭合
- <b><span style="color:#000000">/cmd_pose_world(仅限模拟任务4)</span></b>:
- linear.x/y/z(float):世界坐标系下的平移,单位米
- angular.x/y/z(float):世界坐标系下的旋转,单位弧度
</details>
</details>
<details>
<summary>Tactile</summary>
| 主题名称 | 话题名称 | 消息类型 | 描述 |
|--------------------|---------------------------------------|-----------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 手部控制指令 | `/cb_$pos_hand_control_cmd` | `sensor_msgs/JointState` | - `header`: 消息头<br>- `name`: 关节位置,分别为:大拇指弯曲、大拇指横摆、食指弯曲、中指弯曲、无名指弯曲、小拇指弯曲<br>- `position`: 各个关节目标位置(大拇指弯曲初始值约为 155,其余关节无动作为 255)<br>- `velocity`: 各个关节速度阈值 |
| 手部状态返回 | `/cb_$pos_hand_state` | `sensor_msgs/JointState` | - `header`: 消息头<br>- `position`: 当前各个关节实际位置(255 为张开,0 为闭合)<br>- `velocity`: 当前各个关节速度阈值(无实际作用) |
| 手部触觉矩阵 | `/cb_$pos_hand_matrix_touch_pc2` | `sensor_msgs/PointCloud2` | - `header`: 消息头<br>- `height`, `width`: 点云大小<br>- `fields`: 数据类型声明(`datatype: 2` 表示 uint8 格式)<br>- `is_bigendian`: 是否为大端格式<br>- `point_step`: 步长<br>- `row_step`: 每行总步长<br>- `data`: 触觉矩阵数据,每根手指 72 个触觉单元,共 12 行 × 6 列 = 360 个单元,按从大拇指到小拇指顺序填充;255 表示满压力,0 表示无压力 |
| 六维力 | `/force6d_$pos_hand_force_torque` | `geometry_msgs/WrenchStamped` | - `header`: 消息头<br>- `force`: 所受外力的 x、y、z 分量(单位:N)<br>- `torque`: 所受外力力矩的 x、y、z 分量(单位:Nm) |
</details>
<a id="标注格式"></a>
### 标注格式
标注信息以与文件同名的 JSON 文件存储。示例:
```json
{
"loaction": "长三角一体化示范区智能机器人训练中心",
"primaryScene": "默认一级场景",
"primarySceneCode": "default_level_one_scene",
"secondaryScene": "3C工厂场景",
"secondarySceneCode": "3C factory manufacturing",
"tertiaryScene": "线圈分拣",
"tertiarySceneCode": "Coil sorting",
"initSceneText": "各种颜色的线圈放置在桌子中间,物料箱放置在桌子两边,机器人位于桌子后方",
"englishInitSceneText": "Coils of various colors are placed in the middle of the table, material boxes are placed on both sides of the table, and the robot is located at the back of the table",
"taskGroupName": "单个线圈分拣",
"taskGroupCode": "single_coil_sorting",
"taskName": "7-22-线圈分类",
"taskCode": "XQFL_11",
"deviceSn": "P4-209",
"taskPrompt": "",
"marks": [
{
"taskId": "1947326026455584768",
"markStart": "2025-07-22 9:18:39.640",
"markEnd": "2025-07-22 9:18:39.814",
"duration": 0.233,
"startPosition": 0.7363737795977026,
"endPosition": 0.769568869806783,
"skillAtomic": "pick",
"skillDetail": "从桌子上拿起线圈",
"enSkillDetail": "pick coil from table",
"markType": "step"
}
]
}
```
<a id="数据获取"></a>
## 📥数据资源获取
- **官方申请:** 可通过官方邮箱 `wangsong@lejurobot.com` 直接申请获取。
- **公开平台:** LET 数据集将在 Openloong 开源社区、魔搭社区 及 Hugging Face 等主流平台公开发布,旨在为国内外开发者与研究工作提供便利。
<a id="数据交流群"></a>
## 📋 数据交流群
- **数据交流qq群号:1043359345**
<div align="left">
<img src="docs/images/qq.png" width="400" alt="LET数据交流群">
</div>
<a id="引用"></a>
## 📝 引用
如在研究中使用本数据集,请根据所使用的平台选择以下对应引用方式:
**Huggingface 引用**
```text
@misc{LET_Touch2025,
title={LET:Full-size humanoid robot real machine force and tactile dataset},
author={LejuRobotics},
year={2025},
howpublished={\url{https://huggingface.co/datasets/LejuRobotics/LET-touch-dataset}}
}
```
**魔搭社区(ModelScope)引用**
```text
@misc{LET_Touch2025,
title={LET:Full-size humanoid robot real machine force and tactile dataset},
author={LejuRobotics},
year={2025},
howpublished={\url{https://www.modelscope.cn/datasets/lejurobot/LET-touch-dataset}}
}
```
**Atomgit AI 引用**
```text
@misc{LET_Touch2025,
title={LET:Full-size humanoid robot real machine force and tactile dataset},
author={LejuRobotics},
year={2025},
howpublished={\url{https://ai.atomgit.com/lejurobot/LET-touch-dataset}}
}
```
<a id="许可证"></a>
## 📄 许可证
本仓库中的所有数据和代码均遵循 [CC BY-NC-SA-4.0](https://creativecommons.org/licenses/by-nc-sa/4.0/) 许可协议。
|