Upload README_zh.md with huggingface_hub
Browse files- README_zh.md +136 -0
README_zh.md
ADDED
|
@@ -0,0 +1,136 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# RobotInter-VQA: 面向机器人操作的中间表征理解与生成视觉问答数据集
|
| 2 |
+
|
| 3 |
+
[English](./README.md) | **简体中文**
|
| 4 |
+
|
| 5 |
+
[RoboInter](https://github.com/InternRobotics/RoboInter) 中的机器人操作视觉问答数据集,涵盖中间表征的**生成**、**理解**(以及**任务规划**)三大方向。数据集基于 [RoboInter-Data](https://huggingface.co/datasets/InternRobotics/RoboInter-Data) 的标注构建,原始机器人数据来自 [DROID](https://droid-dataset.github.io/) 和 [RH20T](https://rh20t.github.io/)。
|
| 6 |
+
|
| 7 |
+
## 目录结构
|
| 8 |
+
|
| 9 |
+
```
|
| 10 |
+
robotinter/
|
| 11 |
+
├── Generation/ # 生成任务(定位、轨迹、接触等)
|
| 12 |
+
│ ├── image/ # 图像文件(zip 压缩包,使用前需解压)
|
| 13 |
+
│ │ ├── train/{droid,rh20t}/
|
| 14 |
+
│ │ └── val/
|
| 15 |
+
│ └── meta/ # VQA 标注 JSON 文件
|
| 16 |
+
│ ├── train/{droid,rh20t}/{origin_format,llava_format,smart_resize_format}/
|
| 17 |
+
│ └── val/{origin_format,llava_format,smart_resize_format}/
|
| 18 |
+
├── Understanding/ # 理解任务(选择题/判断题)
|
| 19 |
+
│ ├── image/
|
| 20 |
+
│ │ ├── train/{droid,rh20t}/
|
| 21 |
+
│ │ └── val/
|
| 22 |
+
│ └── meta/
|
| 23 |
+
│ ├── train/{droid,rh20t}/
|
| 24 |
+
│ └── val/
|
| 25 |
+
└── Task_planning/ # 任务规划与动作原语识别
|
| 26 |
+
├── image/
|
| 27 |
+
│ ├── train/manipvqa/
|
| 28 |
+
│ └── val/{planning,choice,decide}/
|
| 29 |
+
└── meta/
|
| 30 |
+
├── train/manipvqa/
|
| 31 |
+
└── val/{planning,choice,decide}/
|
| 32 |
+
```
|
| 33 |
+
|
| 34 |
+
## 快速开始
|
| 35 |
+
|
| 36 |
+
1. **解压图像**:所有图像以 `.zip` 格式存储,原地解压即可使用:
|
| 37 |
+
```bash
|
| 38 |
+
cd RoboInter-VQA
|
| 39 |
+
find . -name "*.zip" -execdir unzip -o {} \;
|
| 40 |
+
```
|
| 41 |
+
|
| 42 |
+
2. **加载 VQA 数据**:
|
| 43 |
+
请参考 [RoboInterVLM](https://github.com/wz7in/RoboInterVLM) 以及[此处](https://github.com/InternRobotics/RoboInter/blob/main/RoboInterVLM/RoboInterVLM-QwenVL/qwen-vl-finetune/qwenvl/data/__init__.py)。
|
| 44 |
+
|
| 45 |
+
|
| 46 |
+
## 坐标格式(仅 Generation 部分)
|
| 47 |
+
|
| 48 |
+
Generation 的标注提供了**三种坐标格式**。底层数据和图像完全相同,仅答案中的坐标表示方式不同:
|
| 49 |
+
|
| 50 |
+
| 格式 | 说明 | 示例 |
|
| 51 |
+
|---|---|---|
|
| 52 |
+
| `origin_format` | 原始图像分辨率下的像素坐标(`h` x `w`) | `[[72, 102], [192, 179]]` |
|
| 53 |
+
| `llava_format` | 归一化到 `[0, 1]` 范围的相对坐标,适用于 LLaVA-based 模型 | `[[0.22, 0.57], [0.60, 0.99]]` |
|
| 54 |
+
| `smart_resize_format` | 缩放后图像分辨率下的像素坐标(`new_h` x `new_w`),适用于 Qwen-based 模型 | `[[69, 95], [184, 167]]` |
|
| 55 |
+
|
| 56 |
+
## JSON 文件说明
|
| 57 |
+
|
| 58 |
+
### Generation(7 种任务)
|
| 59 |
+
|
| 60 |
+
每个条目的基本结构:
|
| 61 |
+
```json
|
| 62 |
+
{
|
| 63 |
+
"id": "unique_sample_id",
|
| 64 |
+
"task": "task_type",
|
| 65 |
+
"conversations": [{"from": "human", "value": "..."}, {"from": "gpt", "value": "..."}],
|
| 66 |
+
"images": "relative/path/to/image.jpg",
|
| 67 |
+
"gt": "ground_truth_value",
|
| 68 |
+
"h": 180, "w": 320,
|
| 69 |
+
"new_h": 168, "new_w": 308
|
| 70 |
+
}
|
| 71 |
+
```
|
| 72 |
+
|
| 73 |
+
| JSON 文件 | 任务名称 | 说明 | 输出格式 |
|
| 74 |
+
|---|---|---|---|
|
| 75 |
+
| `*_traj_qa.json` | 轨迹预测 | 给定任务描述和**起始位置**,预测夹爪未来的 10 个轨迹路点。 | `{"future_traj": [[x1,y1], ...]}` |
|
| 76 |
+
| `*_traj_qa_wo_init_pos.json` | 轨迹预测(无起始位置) | 与上述相同,但提示中**不提供**起始位置。 | `{"future_traj": [[x1,y1], ...]}` |
|
| 77 |
+
| `*_gripper_det_qa.json` | 夹爪检测 | 检测场景中机器人夹爪的当前边界框。 | `{"gripper_det_bbox": [[x1,y1],[x2,y2]]}` |
|
| 78 |
+
| `*_contact_point_qa.json` | 接触点预测 | 预测夹爪两指与被操作物体的两个接触点。 | `{"contact_point": [[x1,y1],[x2,y2]]}` |
|
| 79 |
+
| `*_contact_box_qa.json` | 接触框预测 | 预测夹爪与物体接触瞬间的夹爪边界框。 | `{"contact_bbox": [[x1,y1],[x2,y2]]}` |
|
| 80 |
+
| `*_current_box_qa.json` | 当前物体框 | 预测被操作物体的当前边界框。 | `{"current_bbox": [[x1,y1],[x2,y2]]}` |
|
| 81 |
+
| `*_final_box_qa.json` | 最终物体框 | 预测操作完成后被操作物体的最终边界框。 | `{"final_bbox": [[x1,y1],[x2,y2]]}` |
|
| 82 |
+
|
| 83 |
+
### Understanding(6 种任务)
|
| 84 |
+
|
| 85 |
+
选择题形式的视觉问答任务,评估模型对中间表征的视觉理解能力。使用单图或拼接的多选图像。
|
| 86 |
+
|
| 87 |
+
| JSON 文件 | 任务名称 | 说明 | 答案格式 |
|
| 88 |
+
|---|---|---|---|
|
| 89 |
+
| `contact_decide.json` | 接触判断 | 判断当前场景中夹爪是否已经接触/到达目标物体。 | `Yes` / `No` |
|
| 90 |
+
| `grasppose_choice.json` | 抓取姿态选择 | 从 4 张候选图片(A/B/C/D)中选择正确的抓取姿态,图中橙色叉形图案表示可能的夹爪姿态。 | `A`/`B`/`C`/`D` |
|
| 91 |
+
| `grounding_choice.json` | 物体定位选择 | 从 4 张候选图片中选择哪张正确标注了被操作物体的边界框(紫色框)。 | `A`/`B`/`C`/`D` |
|
| 92 |
+
| `traj_choice.json` | 轨迹选择 | 从 4 张候选图片中选择正确的夹爪轨迹,轨迹用渐变色表示(绿色=起点,红色=终点)。 | `A`/`B`/`C`/`D` |
|
| 93 |
+
| `trajlang_choice.json` | 轨迹-语言匹配 | 给定一个轨迹可视化图像,从 4 个语言描述中选择对应的任务。 | `A`/`B`/`C`/`D` |
|
| 94 |
+
| `traj_direction_choice.json` | 轨迹方向选择 | 给定夹爪周围的多色箭头,选择哪个颜色代表实际运动方向。 | `A`/`B`/`C`/`D` |
|
| 95 |
+
|
| 96 |
+
### Task Planning(任务规划,16 种任务)
|
| 97 |
+
|
| 98 |
+
多图(视频帧)或单帧视觉问答任务,用于高层级任务规划,包含 16 种类型(场景理解、判别式可供性否定任务、判别式可供性肯定任务、未来多任务选择、未来预测任务、未来动作原语选择任务、生成式可供性任务、过去描述任务、过去多任务选择、过去动作原语选择、规划剩余步骤任务、规划任务、带上下文的规划任务、成功否定任务、成功肯定任务、时序理解)。每个条目使用 8 帧采样图像作为输入(时序理解和场景理解使用四张图像的拼接图)。以下提供 4 个示例:
|
| 99 |
+
|
| 100 |
+
| JSON 文件 | 任务名称 | 说明 | 答案格式 |
|
| 101 |
+
|---|---|---|---|
|
| 102 |
+
| `train/manipvqa/task_planning.json` | 下一步规划(训练集) | 给定 8 帧视频和目标任务,预测接下来应执行的子任务。 | 自由文本 |
|
| 103 |
+
| `val/planning/task_planning.json` | 下一步规划(验证集) | 与训练集相同任务,使用独立的验证数据。 | 自由文本 |
|
| 104 |
+
| `val/choice/task_planning.json` | 动作原语选择(验证集) | 给定 8 帧视频,从 4 个选项中选择刚执行的动作原语。 | `A`/`B`/`C`/`D` |
|
| 105 |
+
| `val/decide/task_planning.json` | 成功判断(验证集) | 给定 8 帧视频和子任务描述,判断该子任务是否成功完成。 | `Yes` / `No` |
|
| 106 |
+
|
| 107 |
+
## 数据统计
|
| 108 |
+
|
| 109 |
+
### Generation
|
| 110 |
+
|
| 111 |
+
| 数据源 | traj_qa | gripper_det | contact_point | contact_box | current_box | final_box |
|
| 112 |
+
|---|---|---|---|---|---|---|
|
| 113 |
+
| DROID(训练) | 31,282 | 84,777 | 78,004 | 78,004 | 149,671 | 145,996 |
|
| 114 |
+
| RH20T(训练) | 33,803 | 120,747 | 115,266 | 115,266 | 225,055 | 224,944 |
|
| 115 |
+
| 验证集 | 2,000 | 2,000 | 2,000 | 2,000 | 2,000 | 2,000 |
|
| 116 |
+
|
| 117 |
+
### Understanding
|
| 118 |
+
|
| 119 |
+
| 数据源 | contact_decide | grasppose_choice | grounding_choice | traj_choice | trajlang_choice | traj_direction |
|
| 120 |
+
|---|---|---|---|---|---|---|
|
| 121 |
+
| RH20T(训练) | 15,060 | 9,835 | 8,158 | 3,610 | 3,610 | 3,729 |
|
| 122 |
+
| DROID(训练) | 18,184 | - | 57,572 | 8,245 | 8,245 | 6,500 |
|
| 123 |
+
| 验证集 | 15,514 | 2,702 | 6,108 | 787 | 1,474 | 266 |
|
| 124 |
+
|
| 125 |
+
### Task Planning
|
| 126 |
+
|
| 127 |
+
| 数据划分 | 条目数 |
|
| 128 |
+
|---|---|
|
| 129 |
+
| 训练集(manipvqa) | 928,819 |
|
| 130 |
+
| 验证集 - planning | 10,806 |
|
| 131 |
+
| 验证集 - choice | 15,059 |
|
| 132 |
+
| 验证集 - decide | 10,629 |
|
| 133 |
+
|
| 134 |
+
## 许可证
|
| 135 |
+
|
| 136 |
+
请参阅 [RoboInter](https://github.com/InternRobotics/RoboInter)、[DROID](https://droid-dataset.github.io/) 和 [RH20T](https://rh20t.github.io/) 原始数据集的许可协议。
|