Heart22 commited on
Commit
eea0e84
·
verified ·
1 Parent(s): 81b3816

Delete agibot_vla_overfitting_vla_1756881522

Browse files
agibot_vla_overfitting_vla_1756881522/README.md DELETED
@@ -1,140 +0,0 @@
1
- # 智元机器人过拟合VLA数据集
2
-
3
- ## 数据集信息
4
- - **目标**: 训练过拟合的VLA模型,专门用于固定场景和固定任务
5
- - **机器人类型**: agibot_g01
6
- - **数据频率**: 10 Hz
7
- - **Episode数量**: 1
8
- - **总帧数**: 90
9
- - **数据来源**: 使用真实的控制指令,保持正确的因果关系
10
-
11
- ## 过拟合VLA模型特点
12
-
13
- ### 优势
14
- 1. **专门优化**: 针对特定场景和任务进行深度优化
15
- 2. **高精度**: 在训练环境中可以达到极高的执行精度
16
- 3. **稳定性**: 在固定条件下表现非常稳定
17
- 4. **快速部署**: 无需考虑泛化,可以快速部署到生产环境
18
-
19
- ### 适用场景
20
- - 工业自动化中的重复性任务
21
- - 固定环境下的精密操作
22
- - 需要高精度和高稳定性的应用
23
- - 概念验证和演示系统
24
-
25
- ## 数据格式
26
-
27
- ### 观察空间
28
- - `image`: 头部相机图像 (256x256x3) - 主要视觉输入
29
- - `hand_left_image`: 左手相机图像 (256x256x3) - 细节视角
30
- - `hand_right_image`: 右手相机图像 (256x256x3) - 细节视角
31
- - `state`: 16维状态 (14关节 + 2夹爪,夹爪归一化到[0,1])
32
-
33
- ### 动作空间
34
- - `actions`: 16维动作 (14关节 + 2夹爪,夹爪归一化到[0,1])
35
- - **重要**: 使用真实的控制指令,不是从状态计算得出
36
-
37
- ### 数据质量保证
38
- - **时间同步**: 精确的时间戳对齐
39
- - **高质量插值**: 使用线性插值保持数据平滑性
40
- - **因果关系**: 当前观察 → 真实控制指令 → 未来状态
41
- - **数据完整性**: 完整的状态-动作-图像三元组
42
-
43
- ## VLA模型训练建议
44
-
45
- ### 1. 模型架构
46
- ```python
47
- # 推荐的VLA架构
48
- class OverfittingVLA(nn.Module):
49
- def __init__(self):
50
- # 视觉编码器
51
- self.vision_encoder = ...
52
- # 状态编码器
53
- self.state_encoder = ...
54
- # 动作解码器
55
- self.action_decoder = ...
56
-
57
- def forward(self, image, state):
58
- # 融合视觉和状态信息
59
- # 输出动作预测
60
- return actions
61
- ```
62
-
63
- ### 2. 训练策略
64
- - **学习率**: 较高的学习率 (1e-3 到 1e-4)
65
- - **批次大小**: 根据GPU内存调整 (16-64)
66
- - **训练轮数**: 多轮训练直到完全过拟合
67
- - **损失函数**: MSE或Huber损失
68
- - **优化器**: Adam或AdamW
69
-
70
- ### 3. 验证方法
71
- - **训练集验证**: 在训练数据上达到极低损失
72
- - **轨迹重现**: 能够精确重现训练轨迹
73
- - **实际部署**: 在相同环境中测试执行效果
74
-
75
- ## 部署使用
76
-
77
- ### 推理代码示例
78
- ```python
79
- from lerobot.datasets.lerobot_dataset import LeRobotDataset
80
-
81
- # 加载数据集
82
- dataset = LeRobotDataset("agibot_vla_overfitting_vla_1756881522", root="/media/tapall/Elements/Converted_Lerobot_Data/Lerobot_Test_Glue")
83
-
84
- # 加载训练好的VLA模型
85
- model = load_vla_model("path/to/model.pth")
86
-
87
- # 推理循环
88
- def inference_loop():
89
- while True:
90
- # 获取当前观察
91
- current_image = get_camera_image()
92
- current_state = get_robot_state()
93
-
94
- # VLA模型预测
95
- predicted_action = model(current_image, current_state)
96
-
97
- # 执行动作
98
- execute_action(predicted_action)
99
-
100
- # 等待执行完成
101
- wait_for_completion()
102
- ```
103
-
104
- ### 控制指令转换
105
- ```python
106
- def convert_to_robot_commands(action_16d):
107
- # 分离关节和夹爪动作
108
- joint_action = action_16d[:14]
109
- gripper_action = action_16d[14:]
110
-
111
- # 转换夹爪动作到实际位置
112
- gripper_positions_mm = gripper_action * 120.0
113
-
114
- # 构造智元G01控制指令
115
- joint_dict = {
116
- 'left_arm': joint_action[:7].tolist(),
117
- 'right_arm': joint_action[7:14].tolist(),
118
- 'left_tool': [gripper_positions_mm[0]],
119
- 'right_tool': [gripper_positions_mm[1]]
120
- }
121
-
122
- return joint_dict
123
- ```
124
-
125
- ## 注意事项
126
-
127
- 1. **环境一致性**: 确保部署环境与训练环境完全一致
128
- 2. **传感器校准**: 保持相机和传感器的一致性
129
- 3. **安全措施**: 在实际部署前进行充分的安全测试
130
- 4. **性能监控**: 持续监控模型在实际环境中的表现
131
-
132
- ## 技术支持
133
-
134
- 如果在使用过程中遇到问题,请检查:
135
- - 数据格式是否正确
136
- - 模型输入输出维度是否匹配
137
- - 环境配置是否一致
138
- - 硬件连接是否正常
139
-
140
- 创建时间: 2025-09-03 14:38:45