Dataset Preview
Duplicate
The full dataset viewer is not available (click to read why). Only showing a preview of the rows.
Job manager crashed while running this job (missing heartbeats).
Error code:   JobManagerCrashedError

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

image
image
label
class label
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
0images_main
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
1images_wrist
End of preview.

SandGO Dataset (v1.0)

SandGO 是一个专为具身智能 (Embodied AI)机器人学习设计的 long-horizon 多模态数据集。该数据集由原始 MarsMind_data 经过精炼、去冗余和结构化处理后得到,旨在支持 长序列决策指令跟随多模态模仿学习 等任务。数据集包含完整的状态‑动作序列多视角 RGB 图像LiDAR 点云深度点云 以及对应的 自然语言指令,为训练 Vision-Language-Action (VLA) 模型提供了高质量的训练材料。


📊 数据集概览 (Dataset Summary)

项目 描述
总 episodes 约 168 条长序列轨迹
总时间步数 约 38,011 步
任务类型 巡航、避障、抓取、放置、搜索移动容器等
传感器模态 主相机 RGB、腕部相机 RGB、LiDAR 点云、深度点云、机器人状态、机器人动作
指令形式 原始自然语言文本(每元动作一条)
数据格式 NumPy 数组、JPEG 图像、JSON 元数据

📂 文件结构 (File Structure)

SandGO/
├── episodes/                           # 所有 episode 数据
│   ├── episode_000000/                 # 单个 episode 文件夹
│   │   ├── states.npy                   # 状态序列 (T, state_dim) float32
│   │   ├── actions.npy                  # 动作序列 (T, action_dim) float32
│   │   ├── meta_instructions.txt        # 每条指令文本(每行对应一个元动作)
│   │   ├── meta_segments.npy            # 元动作分段索引 (M, 2),每行 [start, end)
│   │   ├── images_main/                 # 主相机图像,step_000000.jpg ...
│   │   ├── images_wrist/                # 腕部相机图像,step_000000.jpg ...
│   │   ├── point_clouds/                # LiDAR 点云,step_000000.npy (4096, 3)
│   │   ├── depths/                      # 深度点云,step_000000.npy (4096, 3)
│   │   └── meta.json                    # 该 episode 的元信息
│   ├── episode_000001/
│   └── ...
└── metadata.json                         # 全局元数据(总 episode 数、传感器配置等)

🧩 数据格式说明 (Data Format)

1. 状态与动作 (states.npy, actions.npy)

  • states.npy: 形状 (T, state_dim),其中 state_dim = 15(7 关节位置 + 6 关节速度 + 2 底盘速度)。
  • actions.npy: 形状 (T, action_dim),其中 action_dim = 15(7 目标关节位置 + 6 目标关节速度 + 2 底盘速度指令)。

2. 指令信息 (meta_instructions.txt, meta_segments.npy)

  • meta_instructions.txt: 每行一个元动作的原始自然语言指令(例如 "Walk forward to the sand pile in front.")。元动作按时间顺序排列。
  • meta_segments.npy: 形状 (M, 2)M 为元动作个数。每行 [start, end) 表示该元动作在总轨迹中覆盖的时间步范围(包含 start,不包含 end)。通过此数组可快速定位任意时间步对应的指令。

3. 图像 (images_main/, images_wrist/)

  • 文件名格式:step_{六位数字}.jpg,按时间步顺序排列。
  • 图像尺寸:480×640。
  • 主相机视角(p0)和腕部相机视角(p1)分别保存。

4. 点云 (point_clouds/, depths/)

  • 文件名格式:step_{六位数字}.npy,形状 (4096, 3),数据类型 float32
  • point_clouds/: 来自 LiDAR 的点云,已在笛卡尔空间裁剪并采样至 4096 点。
  • depths/: 来自深度相机的点云,同样采样至 4096 点。

5. Episode 元信息 (meta.json)

{
    "task": "Grasp",
    "original_episode": "episode_93",
    "num_steps": 246,
    "num_meta_actions": 4,
    "state_dim": 15,
    "action_dim": 15,
    "num_points": 4096,
    "instruction_format": "raw_text_per_meta",
    "meta_actions": ["1_grasp_object", "2_lift", "3_move_to_container", "4_release"]
}

6. 全局元数据 (metadata.json)

{
    "total_episodes": 168,
    "tasks": ["Cruise_A", "Cruise_B", "Cruise_C", "sample", "Grasp", "Place", "Search_Move_Container"],
    "sensor_config": {
        "USE_PC": true,
        "USE_DEPTH_1": true,
        "num_points": 4096
    }
}

🤖 典型任务示例 (Task Examples)

数据集涵盖了多种机器人操作任务,以下是从原始数据中提取的典型指令示例:

  • 巡航监测: "Cruise at a speed of 0.1m/s for 30 seconds, then collect four images around the fuselage."
  • 动态避障: "Walk forward to the front of the sand pile, being careful not to bump into it, then turn 360 degrees to the left on the spot, then go around to the back of the sand pile from the right."
  • 抓取放置: "Grasp the object and place it into the container."
  • 空间感知: "Turn left 90 degrees on the spot."
  • 边界探索: "Continue forward until you can no longer go forward."

🚀 快速开始 (Quick Start)

安装依赖

pip install numpy pillow

加载一个 episode 的数据

import numpy as np
from PIL import Image
import os

episode_dir = "SandGO/episodes/episode_000000"

# 加载状态和动作
states = np.load(os.path.join(episode_dir, 'states.npy'))      # (T, 15)
actions = np.load(os.path.join(episode_dir, 'actions.npy'))    # (T, 15)

# 加载指令分段信息
segments = np.load(os.path.join(episode_dir, 'meta_segments.npy'))  # (M, 2)
with open(os.path.join(episode_dir, 'meta_instructions.txt'), 'r') as f:
    instructions = [line.strip() for line in f.readlines()]

# 根据步数查找对应的指令
step = 100
for i, (start, end) in enumerate(segments):
    if start <= step < end:
        print(f"Step {step} belongs to meta-action {i}: {instructions[i]}")
        break

# 读取该步的图像
img_main = Image.open(os.path.join(episode_dir, 'images_main', f'step_{step:06d}.jpg'))
img_wrist = Image.open(os.path.join(episode_dir, 'images_wrist', f'step_{step:06d}.jpg'))

# 读取点云
pc = np.load(os.path.join(episode_dir, 'point_clouds', f'step_{step:06d}.npy'))   # (4096, 3)
depth = np.load(os.path.join(episode_dir, 'depths', f'step_{step:06d}.npy'))      # (4096, 3)

使用 Hugging Face Datasets 加载(自定义)

如果需要整合到 Hugging Face 生态,可以编写一个简单的加载脚本,将文件夹映射为 Dataset 对象。


🛠 硬件与环境背景

  • 机器人平台: 7 自由度机械臂(如 Piper)搭配轮式移动底盘。
  • 传感器:
    • 主相机:RGB-D 相机(提供 RGB 图像和深度点云)
    • 腕部相机:RGB 相机
    • LiDAR:用于生成环境点云
  • 动作空间: 包含关节位置/速度控制及底盘速度指令,适用于多种机器人控制策略。
  • 数据频率: 统一为 4 Hz,便于时序模型处理。

📜 许可证 (License)

本数据集采用 Apache-2.0 License 开源。允许自由使用、修改和分发,但需保留原始版权声明。详细条款请参见 LICENSE 文件。


🤝 贡献与反馈

如果您在使用过程中遇到任何问题,或有改进建议,欢迎通过 Issues 反馈。

Downloads last month
98