---
license: cc-by-nc-sa-4.0
---
# LET:全尺寸人形机器人真机数据集
[中文] | [English](https://www.modelscope.cn/datasets/lejurobot/let_dataset/file/view/master/README_EN.md?id=159848&status=1)
LET数据集 基于全尺寸人形机器人 Kuavo 4 Pro 采集,涵盖多场景、多类型操作的真实世界多任务数据。面向机器人操作、移动与交互任务,支持真实环境下的可扩展机器人学习。
## 📋 目录
- [核心特性](#核心特性)
- [硬件平台](#硬件平台)
- [使用指南](#使用指南)
- [工具仓库](#工具仓库)
- [任务与数据内容简介](#任务与数据内容简介)
- [语义标签](#语义标签)
- [数据统计](#数据统计)
- [数据集](#数据集)
- [数据集目录结构](#数据集目录结构)
- [数据格式](#数据格式)
- [标注格式](#标注格式)
- [数据资源获取](#数据获取)
- [数据交流群](#数据交流群)
- [引用](#引用)
- [许可证](#许可证)
## ✨ 核心特性
- 大规模、真实世界、全尺寸人形机器人多视角多模态数据,持续更新
- 覆盖工业、家庭、医疗、服务等多个领域,包含31项子任务场景
- 涵盖抓取、双手操作、工具使用等117种原子技能,累计时长超1000小时
- 数据经专家标注与人工验证,确保高质量
- 提供从数据转换、模型训练到推理验证的完整工具链
传送带分拣任务
|
日常桌面整理
|
流水线分拣
|
左手相机视角
|
头部相机视角
|
右手相机视角
|
## 🤖 硬件平台
主要硬件平台为 **Kuavo 4 Pro** 及其轮式版本,具备以下特性:
- **机器人参数:** 高度 **1.66 米**,重量 **55 公斤**,支持不停机电池更换
- **运动控制:** 40 个自由度,最大行走速度 **7 km/h**,支持双足自主 SLAM
- **泛化能力:** 支持多模态大模型接入(如盘古、DeepSeek、ChatGPT 等),具备 **20+ 原子技能**
## 🚀 使用指南
### 工具仓库
我们提供了完整的工具仓库,包含:
- **数据转换工具([**rosbag2lerobot**](https://github.com/LejuRobotics/kuavo_data_challenge/tree/main/kuavo_data))**:将 rosbag 文件转换为适合模型训练的格式
- **两种模仿学习模型:** **Diffusion Policy** 和 **ACT**
- **模型训练脚本**
- **代码与部署说明**,适用于真实机器人和仿真环境
详细内容请见开源仓库:[**kuavo_data_challenge**](https://github.com/LejuRobotics/kuavo_data_challenge) 🔥
## 🎬 任务与数据内容简介
本数据集覆盖汽车工厂、快消品、酒店服务、3C工厂、生活服务、物流等多种场景,包含多模态观测(RGB、Depth、关节等)与丰富的原子技能(如抓取、双手操作、工具使用等)。
### 语义标签
LET数据集将复杂任务分解为一系列具有明确语义的原子动作步骤,采用规范标注方法,为每个任务提供子任务级别的时间轴与自然语言标注。
每条数据配套多维度语义标签信息,包括:
- 物品标签:工业件、餐具、日用器具、药品等
- 技能标签:抓取、放置、旋转、推进、拉取、按压等
- 任务与场景标识:任务名统一编码,场景维度区分操作上下文语义
- 末端类型:分别记录夹爪、灵巧手执行动作
- 语言描述:如“从传送带抓取药盒并放置到指定托盘”,支持自然语言与动作对齐建模
### 数据统计
LET数据集统计信息如下:
#### 数据类型与场景分布
| 数据类型分布 | 场景分布 |
|:---:|:---:|
|
|
|
#### 任务分布
#### 任务时长分布
#### 任务原子技能分布
## 📦 数据集
### 数据集目录结构
```text
.
├── hdf5
│ ├── real
│ │ ├── Labelled
│ │ │ ├── customer_check_in-P4-dex_hand
│ │ │ ├── deliver_room_card-P4-dex_hand
│ │ │ ├── deliver_water_bottle-P4-dex_hand
│ │ │ ├── loading_of_large_tooling-P4-dex_hand
│ │ │ ├── loading_of_small_tooling-P4-dex_hand
│ │ │ ├── more_coil_sorting-P4-dex_hand
│ │ │ ├── more_FMCG_loading-P4-dex_hand
│ │ │ ├── more_goods_orders-P4-dex_hand
│ │ │ ├── more_scan_code_for_weighing-P4-dex_hand
│ │ │ ├── parts_offline-P4-dex_hand
│ │ │ ├── quick_sort-P4-leju_claw
│ │ │ ├── rubbish_sorting-P4-leju_claw
│ │ │ ├── shop_oversale-P4-leju_claw
│ │ │ ├── single_coil_sorting-P4-dex_hand
│ │ │ ├── single_FMCG_loading-P4-dex_hand
│ │ │ ├── single_goods_orders-P4-dex_hand
│ │ │ ├── single_scan_code_for_weighing-P4-dex_hand
│ │ │ ├── SPS_parts_grab-P4-leju_claw
│ │ │ ├── SPS_parts_sorting-P4-dex_hand
│ │ │ └── task_mass_check-P4-leju_claw
│ │ └── Unlabelled
│ │ ├── assembly_line_sorting-P4-leju_claw
│ │ ├── clothing_storage-P4-leju_claw
│ │ ├── countertop_cleaning-P4-leju_claw
│ │ ├── deliver_room_card-P4-dex_hand
│ │ ├── desktop_decluttering-P4-leju_claw
│ │ ├── drug_finishing-P4-leju_claw
│ │ ├── express_delivery_sorting-P4-leju_claw
│ │ ├── express_logistics_scenario-P4-leju_claw
│ │ ├── loading_of_large_tooling-P4-dex_hand
│ │ ├── loading_of_small_tooling-P4-dex_hand
│ │ ├── loading_of_small_tooling-P4-leju_claw
│ │ ├── more_coil_sorting-P4-dex_hand
│ │ ├── more_FMCG_loading-P4-dex_hand
│ │ ├── more_goods_orders-P4-dex_hand
│ │ ├── more_goods_orders-P4-leju_claw
│ │ ├── more_scan_code_for_weighing-P4-dex_hand
│ │ ├── parts_offline-P4-dex_hand
│ │ ├── parts_off_line-P4-leju_claw
│ │ ├── quick_sort-P4-leju_claw
│ │ ├── rubbish_sorting-P4-leju_claw
│ │ ├── shop_oversale-P4-leju_claw
│ │ ├── single_coil_sorting-P4-dex_hand
│ │ ├── single_FMCG_loading-P4-leju_claw
│ │ ├── single_goods_orders-P4-dex_hand
│ │ ├── SMT_tray_rack_blanking-P4-leju_claw
│ │ ├── SPS_parts_grab-P4-leju_claw
│ │ ├── SPS_parts_sorting-P4-dex_hand
│ │ ├── SPS_parts_sorting-P4-leju_claw
│ │ ├── standardized_feeding_for_FMCG-P4-dex_hand
│ │ └── task_mass_check-P4-leju_claw
│ └── sim
│ └── Unlabelled
│ ├── bottle_flip-P4-claw(Rq2f85)
│ ├── package_weighing-P4-claw(Rq2f85)
│ ├── SPS_parts_sorting-P4-claw(Rq2f85)
│ └── target_placement-P4-claw(Rq2f85)
└── rosbag
├── real
│ ├── Labelled // 同HDF5任务结构
│ └── Unlabelled // 同HDF5任务结构
└── sim
└── Unlabelled // 同HDF5任务结构
```
### 数据格式
#### ROSbag数据格式
| 主题名称 | Topic 名称 | 消息类型 | 主要字段/说明 |
|--------------------|------------------------------------------------|---------------------------------|--------------------------------------------------------------------------------------------------|
| 相机 RGB 图像 | /cam_x/color/image_raw/compressed | sensor_msgs/CompressedImage | x为h/l/r,分别为头/左腕/右腕相机;
header(消息头,含时间戳、序号、坐标系等),
format(图像编码格式),
data(图像数据)|
| 相机深度图像 | /cam_x/depth/image_rect_raw/compressed | sensor_msgs/CompressedImage | x为h/l/r,分别为头/左腕/右腕相机;
header(消息头),format(编码格式),data(图像数据)|
| 手臂轨迹控制 | /kuavo_arm_traj | sensor_msgs/JointState | header(消息头),
name(关节名称列表,14个关节,arm_joint_1~arm_joint_14),
position(关节目标位置,结构同下方原始传感器数据第12-25项)|
| 原始传感器数据 | /sensors_data_raw | kuavo_msgs/sensorsData | sensor_time(时间戳),
joint_data(关节数据:位置、速度、加速度、电流),
imu_data(IMU数据:陀螺仪、加速度计、四元数),
end_effector_data(末端执行器数据,当前未用)|
| 灵巧手位置(真机) | /control_robot_hand_position | kuavo_msgs/robotHandPosition | left_hand_position(左手6维,0张开,100闭合),
right_hand_position(右手6维,0张开,100闭合)|
| 灵巧手状态(真机) | /dexhand/state | sensor_msgs/JointState | name(12个关节名),
position(12个关节位置,前6为左手,后6为右手),
velocity(12个关节速度),
effort(12个关节电流)|
| 夹爪控制(真机) | /leju_claw_command | kuavo_msgs/lejuclawcommand | name(长度2,left_claw/right_claw),
position(长度2,0张开,100闭合),
velocity(长度2,目标速度,默认50),
effort(长度2,目标电流,单位A,默认1)|
| 夹爪状态(真机) | /leju_claw_state | kuavo_msgs/lejuClawState | state(int8[2],左/右爪状态,详见下方),
data(kuavo_msgs/endEffectorData,包含爪位置、速度、电流)|
| 仿真夹爪控制 | /gripper/command | sensor_msgs/JointState | header(消息头),
position(长度2,0张开,255闭合)|
| 仿真夹爪状态 | /gripper/state | sensor_msgs/JointState | header(消息头),
position(长度2,0张开,0.8闭合)|
| 机器人位置命令 | /cmd_pose_world | geometry_msgs/Twist | linear.x/y/z(世界坐标系下的平移,单位m),
angular.x/y/z(世界坐标系下的旋转,单位弧度)|
详细字段说明
- /cam_x/color/image_raw/compressed、/cam_x/depth/image_rect_raw/compressed:
- header(std_msgs/Header):消息头,包含时间戳、序号、坐标系等信息
- format(string):图像编码格式
- data(uint8[]):图像数据
- /kuavo_arm_traj:
- header:消息头
- name:关节名称列表,14个关节,命名为arm_joint_1~arm_joint_14
- position:关节目标位置,结构同下方原始传感器数据第12-25项
- /sensors_data_raw:
- sensor_time(time):时间戳
- joint_data(kuavo_msgs/jointData):关节数据,包括位置、速度、加速度、电流
- 数据顺序:
- 前 12 项为下肢电机数据:
- 索引 0–5:左腿
(`l_leg_roll`, `l_leg_yaw`, `l_leg_pitch`, `l_knee`, `l_foot_pitch`, `l_foot_roll`)
- 索引 6–11:右腿
(`r_leg_roll`, `r_leg_yaw`, `r_leg_pitch`, `r_knee`, `r_foot_pitch`, `r_foot_roll`)
- 接下来的 14 项为手臂电机数据:
- 索引 12–18:左臂
(`l_arm_pitch`, `l_arm_roll`, `l_arm_yaw`, `l_forearm_pitch`, `l_hand_yaw`, `l_hand_pitch`, `l_hand_roll`)
- 索引 19–25:右臂
(`r_arm_pitch`, `r_arm_roll`, `r_arm_yaw`, `r_forearm_pitch`, `r_hand_yaw`, `r_hand_pitch`, `r_hand_roll`)
- 最后 2 项为头部电机数据:
`head_yaw`, `head_pitch`
- 单位:位置为弧度,速度为弧度每秒 (radian/s),弧度每平方秒 (radian/s²),电流为安培(A)
- imu_data(kuavo_msgs/imuData):IMU数据,包括陀螺仪(gyro,单位rad/s)、加速度计(acc,单位m/s²)、quat(IMU 方向)
- end_effector_data(kuavo_msgs/endEffectorData):末端执行器数据,当前未用
- /control_robot_hand_position:
- left_hand_position(float[6]):左手6维,每个元素[0,100],0为完全张开,100为完全闭合
- right_hand_position(float[6]):右手6维,含义同上
- /dexhand/state:
- name(string[12]):12个关节名
- position(float[12]):12个关节位置,前6为左手,后6为右手
- velocity(float[12]):12个关节速度,前6为左手,后6为右手
- effort(float[12]):12个关节电流,前6为左手,后6为右手
- /leju_claw_command:
- name(string[2]):left_claw, right_claw
- position(float[2]):左右爪目标位置,[0,100],0张开,100闭合
- velocity(float[2]):目标速度,[0,100],默认50
- effort(float[2]):目标电流,单位A,默认1
- /leju_claw_state:
- state(int8[2]):左/右爪状态,取值含义如下:
- -1:错误(执行异常)
- 0:未知(初始化默认状态)
- 1:移动中
- 2:到达目标位置
- 3:已抓取物体
- data(kuavo_msgs/endEffectorData):包含爪的位置、速度、电流,结构同/leju_claw_command
- /gripper/command(仿真):
- header:消息头
- position(float[2]):左右夹爪目标位置,[0,255],0张开,255闭合
- /gripper/state(仿真):
- header:消息头
- position(float[2]):左右夹爪当前位置,[0,0.8],0张开,0.8闭合
- /cmd_pose_world(仅限模拟任务4):
- linear.x/y/z(float):世界坐标系下的平移,单位米
- angular.x/y/z(float):世界坐标系下的旋转,单位弧度
#### HDF5数据格式
```text
├── cameras
│ ├── hand_left //左手相机
│ │ ├── color // RGB 图像信息
│ │ │ └── data // RGB 图像数据(按时间戳存放)
│ │ └── depth/ // 深度图像信息
│ │ └── data // 深度数据
│ ├── hand_right // 右手相机
│ │ ├── color // RGB图像信息
│ │ │ └── data // RGB数据
│ │ └── depth // 深度图像信息
│ │ └── data // 深度数据
│ └── head // 头部相机
│ ├── color // RGB图像信息
│ │ └── data // RGB图像数据
│ └── depth // 深度图像信息
│ └── data // 深度数据
├── joints // 关节数据
│ ├── action // 关节期望值
│ │ ├── arm // 机械臂
│ │ │ ├── position // N(⾏)*14(列);N代表帧数,14代表左右2个臂的自由度(单臂7自由度)
│ │ │ └── velocity // 关节期望速度
│ │ ├── effector // 末端
│ │ │ └── position // N(⾏)*2(列);N代表帧数,2代表左右2个夹⽗开合状态
│ │ ├── head // 头部
│ │ │ ├── position // N(⾏)*2(列);N代表帧数,2代表2个⾃由度(俯仰和周转)
│ │ │ └── velocity // 关节速度
│ │ └── leg // 腿部
│ │ ├── position // N(⾏)*12(列)
│ │ └── velocity // 关节速度
│ └── state // 关节实际值
│ ├── arm // 机械臂
│ │ ├── position // N(⾏)*14(列);N代表帧数,14代表左右2个臂的自由度(单臂7自由度)
│ │ └── velocity // 关节速度
│ ├── effector // 末端
│ │ └── position // // N(⾏)*2(列);N代表帧数,2代表左右2个夹⽗开合状态
│ ├── head // 头部
│ │ ├── position // N(⾏)*2(列);N代表帧数,2代表2个⾃由度(俯仰和周转)
│ │ └── velocity // 关节速度
│ └── leg // 腿部
│ ├── position // N(⾏)*12(列)
│ └── velocity // 关节速度
├── parameters // 传感器外参
│ └── camera
│ ├── hand_left.json # 左手相机内参/外参
│ ├── hand_right.json # 右手相机内参/外参
│ └── head.json # 头部相机内参/外参
└── metadata.json # 采集元信息:设备、末端类型、相机帧率、关节信息等
```
### 标注格式
标注信息以与文件同名的 JSON 文件存储。示例:
```json
{
"loaction": "长三角一体化示范区智能机器人训练中心",
"primaryScene": "默认一级场景",
"primarySceneCode": "default_level_one_scene",
"secondaryScene": "3C工厂场景",
"secondarySceneCode": "3C factory manufacturing",
"tertiaryScene": "线圈分拣",
"tertiarySceneCode": "Coil sorting",
"initSceneText": "各种颜色的线圈放置在桌子中间,物料箱放置在桌子两边,机器人位于桌子后方",
"englishInitSceneText": "Coils of various colors are placed in the middle of the table, material boxes are placed on both sides of the table, and the robot is located at the back of the table",
"taskGroupName": "单个线圈分拣",
"taskGroupCode": "single_coil_sorting",
"taskName": "7-22-线圈分类",
"taskCode": "XQFL_11",
"deviceSn": "P4-209",
"taskPrompt": "",
"marks": [
{
"taskId": "1947326026455584768",
"markStart": "2025-07-22 9:18:39.640",
"markEnd": "2025-07-22 9:18:39.814",
"duration": 0.233,
"startPosition": 0.7363737795977026,
"endPosition": 0.769568869806783,
"skillAtomic": "pick",
"skillDetail": "从桌子上拿起线圈",
"enSkillDetail": "pick coil from table",
"markType": "step"
}
]
}
```
## 📥数据资源获取
- **官方申请:** 可通过官方邮箱 `wangsong@lejurobot.com` 直接申请获取。
- **公开平台:** LET 数据集将在 Openloong 开源社区、魔搭社区 及 Hugging Face 等主流平台公开发布,旨在为国内外开发者与研究工作提供便利。
## 📋 数据交流群
- **数据交流qq群号:1043359345**
## 📝 引用
如在研究中使用本数据集,请根据所使用的平台选择以下对应引用方式:
**Huggingface 引用**
```text
@misc{LET2025,
title={LET:Full-Size Humanoid Robot Real-World Dataset},
author={LejuRobotics},
year={2025},
howpublished={\url{https://huggingface.co/datasets/LejuRobotics/let_dataset}}
}
```
**魔搭社区(ModelScope)引用**
```text
@misc{LET2025,
title={LET:Full-Size Humanoid Robot Real-World Dataset},
author={LejuRobotics},
year={2025},
howpublished={\url{https://www.modelscope.cn/datasets/lejurobot/let_dataset}}
}
```
**Atomgit AI 引用**
```text
@misc{LET2025,
title={LET:Full-Size Humanoid Robot Real-World Dataset},
author={LejuRobotics},
year={2025},
howpublished={\url{https://ai.atomgit.com/lejurobot/let_dataset}}
}
```
## 📄 许可证
本仓库中的所有数据和代码均遵循 [CC BY-NC-SA-4.0](https://creativecommons.org/licenses/by-nc-sa/4.0/) 许可协议。