bchandaka commited on
Commit
55bdd46
·
verified ·
1 Parent(s): 1de787f

Add files using upload-large-folder tool

Browse files
This view is limited to 50 files because it contains too many changes.   See raw diff
Files changed (50) hide show
  1. .hydra/config.yaml +120 -0
  2. .hydra/hydra.yaml +163 -0
  3. .hydra/overrides.yaml +5 -0
  4. .ipynb_checkpoints/act_acm_move_square-checkpoint.log +0 -0
  5. act_acm_move_square.log +0 -0
  6. checkpoints/010000/pretrained_model/README.md +12 -0
  7. checkpoints/010000/pretrained_model/config.json +43 -0
  8. checkpoints/010000/pretrained_model/config.yaml +220 -0
  9. checkpoints/010000/pretrained_model/model.safetensors +3 -0
  10. checkpoints/010000/training_state.pth +3 -0
  11. checkpoints/020000/pretrained_model/README.md +12 -0
  12. checkpoints/020000/pretrained_model/config.json +43 -0
  13. checkpoints/020000/pretrained_model/config.yaml +220 -0
  14. checkpoints/020000/pretrained_model/model.safetensors +3 -0
  15. checkpoints/020000/training_state.pth +3 -0
  16. checkpoints/030000/pretrained_model/README.md +12 -0
  17. checkpoints/030000/pretrained_model/config.json +43 -0
  18. checkpoints/030000/pretrained_model/config.yaml +220 -0
  19. checkpoints/030000/pretrained_model/model.safetensors +3 -0
  20. checkpoints/030000/training_state.pth +3 -0
  21. checkpoints/040000/pretrained_model/README.md +12 -0
  22. checkpoints/040000/pretrained_model/config.json +43 -0
  23. checkpoints/040000/pretrained_model/config.yaml +220 -0
  24. checkpoints/040000/pretrained_model/model.safetensors +3 -0
  25. checkpoints/040000/training_state.pth +3 -0
  26. checkpoints/050000/pretrained_model/README.md +12 -0
  27. checkpoints/050000/pretrained_model/config.json +43 -0
  28. checkpoints/050000/pretrained_model/config.yaml +220 -0
  29. checkpoints/050000/pretrained_model/model.safetensors +3 -0
  30. checkpoints/050000/training_state.pth +3 -0
  31. checkpoints/060000/pretrained_model/README.md +12 -0
  32. checkpoints/060000/pretrained_model/config.json +43 -0
  33. checkpoints/060000/pretrained_model/config.yaml +220 -0
  34. checkpoints/060000/pretrained_model/model.safetensors +3 -0
  35. checkpoints/060000/training_state.pth +3 -0
  36. checkpoints/070000/pretrained_model/README.md +12 -0
  37. checkpoints/070000/pretrained_model/config.json +43 -0
  38. checkpoints/070000/pretrained_model/config.yaml +220 -0
  39. checkpoints/070000/pretrained_model/model.safetensors +3 -0
  40. checkpoints/070000/training_state.pth +3 -0
  41. checkpoints/080000/pretrained_model/README.md +12 -0
  42. checkpoints/080000/pretrained_model/config.json +43 -0
  43. checkpoints/080000/pretrained_model/config.yaml +220 -0
  44. checkpoints/080000/pretrained_model/model.safetensors +3 -0
  45. checkpoints/080000/training_state.pth +3 -0
  46. wandb/debug-internal.log +0 -0
  47. wandb/debug.log +26 -0
  48. wandb/run-20240920_183332-w3m04wq0/files/conda-environment.yaml +232 -0
  49. wandb/run-20240920_183332-w3m04wq0/files/config.yaml +182 -0
  50. wandb/run-20240920_183332-w3m04wq0/files/output.log +21 -0
.hydra/config.yaml ADDED
@@ -0,0 +1,120 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id: bchandaka/acm_move_square
6
+ video_backend: pyav
7
+ training:
8
+ offline_steps: 80000
9
+ num_workers: 4
10
+ batch_size: 4
11
+ eval_freq: -1
12
+ log_freq: 100
13
+ save_checkpoint: true
14
+ save_freq: 10000
15
+ online_steps: 0
16
+ online_rollout_n_episodes: 1
17
+ online_rollout_batch_size: 1
18
+ online_steps_between_rollouts: 1
19
+ online_sampling_ratio: 0.5
20
+ online_env_seed: null
21
+ online_buffer_capacity: null
22
+ online_buffer_seed_size: 0
23
+ do_online_rollout_async: false
24
+ image_transforms:
25
+ enable: false
26
+ max_num_transforms: 3
27
+ random_order: false
28
+ brightness:
29
+ weight: 1
30
+ min_max:
31
+ - 0.8
32
+ - 1.2
33
+ contrast:
34
+ weight: 1
35
+ min_max:
36
+ - 0.8
37
+ - 1.2
38
+ saturation:
39
+ weight: 1
40
+ min_max:
41
+ - 0.5
42
+ - 1.5
43
+ hue:
44
+ weight: 1
45
+ min_max:
46
+ - -0.05
47
+ - 0.05
48
+ sharpness:
49
+ weight: 1
50
+ min_max:
51
+ - 0.8
52
+ - 1.2
53
+ lr: 1.0e-05
54
+ lr_backbone: 1.0e-05
55
+ weight_decay: 0.0001
56
+ grad_clip_norm: 10
57
+ delta_timestamps:
58
+ action: '[i / ${fps} for i in range(${policy.chunk_size})]'
59
+ eval:
60
+ n_episodes: 50
61
+ batch_size: 50
62
+ use_async_envs: false
63
+ wandb:
64
+ enable: true
65
+ disable_artifact: false
66
+ project: lerobot
67
+ notes: ''
68
+ fps: 30
69
+ env:
70
+ name: real_world
71
+ task: null
72
+ state_dim: 6
73
+ action_dim: 6
74
+ fps: ${fps}
75
+ override_dataset_stats:
76
+ observation.images.laptop:
77
+ mean:
78
+ - - - 0.485
79
+ - - - 0.456
80
+ - - - 0.406
81
+ std:
82
+ - - - 0.229
83
+ - - - 0.224
84
+ - - - 0.225
85
+ policy:
86
+ name: act
87
+ n_obs_steps: 1
88
+ chunk_size: 100
89
+ n_action_steps: 100
90
+ input_shapes:
91
+ observation.images.laptop:
92
+ - 3
93
+ - 480
94
+ - 640
95
+ observation.state:
96
+ - ${env.state_dim}
97
+ output_shapes:
98
+ action:
99
+ - ${env.action_dim}
100
+ input_normalization_modes:
101
+ observation.images.laptop: mean_std
102
+ observation.state: mean_std
103
+ output_normalization_modes:
104
+ action: mean_std
105
+ vision_backbone: resnet18
106
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
107
+ replace_final_stride_with_dilation: false
108
+ pre_norm: false
109
+ dim_model: 512
110
+ n_heads: 8
111
+ dim_feedforward: 3200
112
+ feedforward_activation: relu
113
+ n_encoder_layers: 4
114
+ n_decoder_layers: 1
115
+ use_vae: true
116
+ latent_dim: 32
117
+ n_vae_encoder_layers: 4
118
+ temporal_ensemble_momentum: null
119
+ dropout: 0.1
120
+ kl_weight: 10.0
.hydra/hydra.yaml ADDED
@@ -0,0 +1,163 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ hydra:
2
+ run:
3
+ dir: outputs/train/act_acm_move_square
4
+ sweep:
5
+ dir: multirun/${now:%Y-%m-%d}/${now:%H-%M-%S}
6
+ subdir: ${hydra.job.num}
7
+ launcher:
8
+ _target_: hydra._internal.core_plugins.basic_launcher.BasicLauncher
9
+ sweeper:
10
+ _target_: hydra._internal.core_plugins.basic_sweeper.BasicSweeper
11
+ max_batch_size: null
12
+ params: null
13
+ help:
14
+ app_name: ${hydra.job.name}
15
+ header: '${hydra.help.app_name} is powered by Hydra.
16
+
17
+ '
18
+ footer: 'Powered by Hydra (https://hydra.cc)
19
+
20
+ Use --hydra-help to view Hydra specific help
21
+
22
+ '
23
+ template: '${hydra.help.header}
24
+
25
+ == Configuration groups ==
26
+
27
+ Compose your configuration from those groups (group=option)
28
+
29
+
30
+ $APP_CONFIG_GROUPS
31
+
32
+
33
+ == Config ==
34
+
35
+ Override anything in the config (foo.bar=value)
36
+
37
+
38
+ $CONFIG
39
+
40
+
41
+ ${hydra.help.footer}
42
+
43
+ '
44
+ hydra_help:
45
+ template: 'Hydra (${hydra.runtime.version})
46
+
47
+ See https://hydra.cc for more info.
48
+
49
+
50
+ == Flags ==
51
+
52
+ $FLAGS_HELP
53
+
54
+
55
+ == Configuration groups ==
56
+
57
+ Compose your configuration from those groups (For example, append hydra/job_logging=disabled
58
+ to command line)
59
+
60
+
61
+ $HYDRA_CONFIG_GROUPS
62
+
63
+
64
+ Use ''--cfg hydra'' to Show the Hydra config.
65
+
66
+ '
67
+ hydra_help: ???
68
+ hydra_logging:
69
+ version: 1
70
+ formatters:
71
+ simple:
72
+ format: '[%(asctime)s][HYDRA] %(message)s'
73
+ handlers:
74
+ console:
75
+ class: logging.StreamHandler
76
+ formatter: simple
77
+ stream: ext://sys.stdout
78
+ root:
79
+ level: INFO
80
+ handlers:
81
+ - console
82
+ loggers:
83
+ logging_example:
84
+ level: DEBUG
85
+ disable_existing_loggers: false
86
+ job_logging:
87
+ version: 1
88
+ formatters:
89
+ simple:
90
+ format: '[%(asctime)s][%(name)s][%(levelname)s] - %(message)s'
91
+ handlers:
92
+ console:
93
+ class: logging.StreamHandler
94
+ formatter: simple
95
+ stream: ext://sys.stdout
96
+ file:
97
+ class: logging.FileHandler
98
+ formatter: simple
99
+ filename: ${hydra.runtime.output_dir}/${hydra.job.name}.log
100
+ root:
101
+ level: INFO
102
+ handlers:
103
+ - console
104
+ - file
105
+ disable_existing_loggers: false
106
+ env: {}
107
+ mode: RUN
108
+ searchpath: []
109
+ callbacks: {}
110
+ output_subdir: .hydra
111
+ overrides:
112
+ hydra:
113
+ - hydra.run.dir=outputs/train/act_acm_move_square
114
+ - hydra.job.name=act_acm_move_square
115
+ - hydra.mode=RUN
116
+ task:
117
+ - dataset_repo_id=bchandaka/acm_move_square
118
+ - policy=act_koch_real
119
+ - env=koch_real
120
+ - device=cuda
121
+ - wandb.enable=true
122
+ job:
123
+ name: act_acm_move_square
124
+ chdir: null
125
+ override_dirname: dataset_repo_id=bchandaka/acm_move_square,device=cuda,env=koch_real,policy=act_koch_real,wandb.enable=true
126
+ id: ???
127
+ num: ???
128
+ config_name: default
129
+ env_set: {}
130
+ env_copy: []
131
+ config:
132
+ override_dirname:
133
+ kv_sep: '='
134
+ item_sep: ','
135
+ exclude_keys: []
136
+ runtime:
137
+ version: 1.3.2
138
+ version_base: '1.2'
139
+ cwd: /home/bhargav9/lerobot
140
+ config_sources:
141
+ - path: hydra.conf
142
+ schema: pkg
143
+ provider: hydra
144
+ - path: /home/bhargav9/lerobot/lerobot/configs
145
+ schema: file
146
+ provider: main
147
+ - path: ''
148
+ schema: structured
149
+ provider: schema
150
+ output_dir: /home/bhargav9/lerobot/outputs/train/act_acm_move_square
151
+ choices:
152
+ policy: act_koch_real
153
+ env: koch_real
154
+ hydra/env: default
155
+ hydra/callbacks: null
156
+ hydra/job_logging: default
157
+ hydra/hydra_logging: default
158
+ hydra/hydra_help: default
159
+ hydra/help: default
160
+ hydra/sweeper: basic
161
+ hydra/launcher: basic
162
+ hydra/output: default
163
+ verbose: false
.hydra/overrides.yaml ADDED
@@ -0,0 +1,5 @@
 
 
 
 
 
 
1
+ - dataset_repo_id=bchandaka/acm_move_square
2
+ - policy=act_koch_real
3
+ - env=koch_real
4
+ - device=cuda
5
+ - wandb.enable=true
.ipynb_checkpoints/act_acm_move_square-checkpoint.log ADDED
File without changes
act_acm_move_square.log ADDED
File without changes
checkpoints/010000/pretrained_model/README.md ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: lerobot
3
+ tags:
4
+ - act
5
+ - model_hub_mixin
6
+ - pytorch_model_hub_mixin
7
+ - robotics
8
+ ---
9
+
10
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
+ - Library: https://github.com/huggingface/lerobot
12
+ - Docs: [More Information Needed]
checkpoints/010000/pretrained_model/config.json ADDED
@@ -0,0 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.laptop": "mean_std",
9
+ "observation.state": "mean_std"
10
+ },
11
+ "input_shapes": {
12
+ "observation.images.laptop": [
13
+ 3,
14
+ 480,
15
+ 640
16
+ ],
17
+ "observation.state": [
18
+ 6
19
+ ]
20
+ },
21
+ "kl_weight": 10.0,
22
+ "latent_dim": 32,
23
+ "n_action_steps": 100,
24
+ "n_decoder_layers": 1,
25
+ "n_encoder_layers": 4,
26
+ "n_heads": 8,
27
+ "n_obs_steps": 1,
28
+ "n_vae_encoder_layers": 4,
29
+ "output_normalization_modes": {
30
+ "action": "mean_std"
31
+ },
32
+ "output_shapes": {
33
+ "action": [
34
+ 6
35
+ ]
36
+ },
37
+ "pre_norm": false,
38
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
39
+ "replace_final_stride_with_dilation": false,
40
+ "temporal_ensemble_coeff": null,
41
+ "use_vae": true,
42
+ "vision_backbone": "resnet18"
43
+ }
checkpoints/010000/pretrained_model/config.yaml ADDED
@@ -0,0 +1,220 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id: bchandaka/acm_move_square
6
+ video_backend: pyav
7
+ training:
8
+ offline_steps: 80000
9
+ num_workers: 4
10
+ batch_size: 4
11
+ eval_freq: -1
12
+ log_freq: 100
13
+ save_checkpoint: true
14
+ save_freq: 10000
15
+ online_steps: 0
16
+ online_rollout_n_episodes: 1
17
+ online_rollout_batch_size: 1
18
+ online_steps_between_rollouts: 1
19
+ online_sampling_ratio: 0.5
20
+ online_env_seed: null
21
+ online_buffer_capacity: null
22
+ online_buffer_seed_size: 0
23
+ do_online_rollout_async: false
24
+ image_transforms:
25
+ enable: false
26
+ max_num_transforms: 3
27
+ random_order: false
28
+ brightness:
29
+ weight: 1
30
+ min_max:
31
+ - 0.8
32
+ - 1.2
33
+ contrast:
34
+ weight: 1
35
+ min_max:
36
+ - 0.8
37
+ - 1.2
38
+ saturation:
39
+ weight: 1
40
+ min_max:
41
+ - 0.5
42
+ - 1.5
43
+ hue:
44
+ weight: 1
45
+ min_max:
46
+ - -0.05
47
+ - 0.05
48
+ sharpness:
49
+ weight: 1
50
+ min_max:
51
+ - 0.8
52
+ - 1.2
53
+ lr: 1.0e-05
54
+ lr_backbone: 1.0e-05
55
+ weight_decay: 0.0001
56
+ grad_clip_norm: 10
57
+ delta_timestamps:
58
+ action:
59
+ - 0.0
60
+ - 0.03333333333333333
61
+ - 0.06666666666666667
62
+ - 0.1
63
+ - 0.13333333333333333
64
+ - 0.16666666666666666
65
+ - 0.2
66
+ - 0.23333333333333334
67
+ - 0.26666666666666666
68
+ - 0.3
69
+ - 0.3333333333333333
70
+ - 0.36666666666666664
71
+ - 0.4
72
+ - 0.43333333333333335
73
+ - 0.4666666666666667
74
+ - 0.5
75
+ - 0.5333333333333333
76
+ - 0.5666666666666667
77
+ - 0.6
78
+ - 0.6333333333333333
79
+ - 0.6666666666666666
80
+ - 0.7
81
+ - 0.7333333333333333
82
+ - 0.7666666666666667
83
+ - 0.8
84
+ - 0.8333333333333334
85
+ - 0.8666666666666667
86
+ - 0.9
87
+ - 0.9333333333333333
88
+ - 0.9666666666666667
89
+ - 1.0
90
+ - 1.0333333333333334
91
+ - 1.0666666666666667
92
+ - 1.1
93
+ - 1.1333333333333333
94
+ - 1.1666666666666667
95
+ - 1.2
96
+ - 1.2333333333333334
97
+ - 1.2666666666666666
98
+ - 1.3
99
+ - 1.3333333333333333
100
+ - 1.3666666666666667
101
+ - 1.4
102
+ - 1.4333333333333333
103
+ - 1.4666666666666666
104
+ - 1.5
105
+ - 1.5333333333333334
106
+ - 1.5666666666666667
107
+ - 1.6
108
+ - 1.6333333333333333
109
+ - 1.6666666666666667
110
+ - 1.7
111
+ - 1.7333333333333334
112
+ - 1.7666666666666666
113
+ - 1.8
114
+ - 1.8333333333333333
115
+ - 1.8666666666666667
116
+ - 1.9
117
+ - 1.9333333333333333
118
+ - 1.9666666666666666
119
+ - 2.0
120
+ - 2.033333333333333
121
+ - 2.066666666666667
122
+ - 2.1
123
+ - 2.1333333333333333
124
+ - 2.1666666666666665
125
+ - 2.2
126
+ - 2.2333333333333334
127
+ - 2.2666666666666666
128
+ - 2.3
129
+ - 2.3333333333333335
130
+ - 2.3666666666666667
131
+ - 2.4
132
+ - 2.433333333333333
133
+ - 2.466666666666667
134
+ - 2.5
135
+ - 2.533333333333333
136
+ - 2.566666666666667
137
+ - 2.6
138
+ - 2.6333333333333333
139
+ - 2.6666666666666665
140
+ - 2.7
141
+ - 2.7333333333333334
142
+ - 2.7666666666666666
143
+ - 2.8
144
+ - 2.8333333333333335
145
+ - 2.8666666666666667
146
+ - 2.9
147
+ - 2.933333333333333
148
+ - 2.966666666666667
149
+ - 3.0
150
+ - 3.033333333333333
151
+ - 3.066666666666667
152
+ - 3.1
153
+ - 3.1333333333333333
154
+ - 3.1666666666666665
155
+ - 3.2
156
+ - 3.2333333333333334
157
+ - 3.2666666666666666
158
+ - 3.3
159
+ eval:
160
+ n_episodes: 50
161
+ batch_size: 50
162
+ use_async_envs: false
163
+ wandb:
164
+ enable: true
165
+ disable_artifact: false
166
+ project: lerobot
167
+ notes: ''
168
+ fps: 30
169
+ env:
170
+ name: real_world
171
+ task: null
172
+ state_dim: 6
173
+ action_dim: 6
174
+ fps: ${fps}
175
+ override_dataset_stats:
176
+ observation.images.laptop:
177
+ mean:
178
+ - - - 0.485
179
+ - - - 0.456
180
+ - - - 0.406
181
+ std:
182
+ - - - 0.229
183
+ - - - 0.224
184
+ - - - 0.225
185
+ policy:
186
+ name: act
187
+ n_obs_steps: 1
188
+ chunk_size: 100
189
+ n_action_steps: 100
190
+ input_shapes:
191
+ observation.images.laptop:
192
+ - 3
193
+ - 480
194
+ - 640
195
+ observation.state:
196
+ - ${env.state_dim}
197
+ output_shapes:
198
+ action:
199
+ - ${env.action_dim}
200
+ input_normalization_modes:
201
+ observation.images.laptop: mean_std
202
+ observation.state: mean_std
203
+ output_normalization_modes:
204
+ action: mean_std
205
+ vision_backbone: resnet18
206
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
207
+ replace_final_stride_with_dilation: false
208
+ pre_norm: false
209
+ dim_model: 512
210
+ n_heads: 8
211
+ dim_feedforward: 3200
212
+ feedforward_activation: relu
213
+ n_encoder_layers: 4
214
+ n_decoder_layers: 1
215
+ use_vae: true
216
+ latent_dim: 32
217
+ n_vae_encoder_layers: 4
218
+ temporal_ensemble_momentum: null
219
+ dropout: 0.1
220
+ kl_weight: 10.0
checkpoints/010000/pretrained_model/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:22221c597f39228505deac63076f58ad4c47708f56cf109f210f8ebae4f1b49f
3
+ size 206700800
checkpoints/010000/training_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:532a5a5b5439e094eefe60d7a4ce718cfac32f8fd4c3bee12283302fbd35553e
3
+ size 412921871
checkpoints/020000/pretrained_model/README.md ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: lerobot
3
+ tags:
4
+ - act
5
+ - model_hub_mixin
6
+ - pytorch_model_hub_mixin
7
+ - robotics
8
+ ---
9
+
10
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
+ - Library: https://github.com/huggingface/lerobot
12
+ - Docs: [More Information Needed]
checkpoints/020000/pretrained_model/config.json ADDED
@@ -0,0 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.laptop": "mean_std",
9
+ "observation.state": "mean_std"
10
+ },
11
+ "input_shapes": {
12
+ "observation.images.laptop": [
13
+ 3,
14
+ 480,
15
+ 640
16
+ ],
17
+ "observation.state": [
18
+ 6
19
+ ]
20
+ },
21
+ "kl_weight": 10.0,
22
+ "latent_dim": 32,
23
+ "n_action_steps": 100,
24
+ "n_decoder_layers": 1,
25
+ "n_encoder_layers": 4,
26
+ "n_heads": 8,
27
+ "n_obs_steps": 1,
28
+ "n_vae_encoder_layers": 4,
29
+ "output_normalization_modes": {
30
+ "action": "mean_std"
31
+ },
32
+ "output_shapes": {
33
+ "action": [
34
+ 6
35
+ ]
36
+ },
37
+ "pre_norm": false,
38
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
39
+ "replace_final_stride_with_dilation": false,
40
+ "temporal_ensemble_coeff": null,
41
+ "use_vae": true,
42
+ "vision_backbone": "resnet18"
43
+ }
checkpoints/020000/pretrained_model/config.yaml ADDED
@@ -0,0 +1,220 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id: bchandaka/acm_move_square
6
+ video_backend: pyav
7
+ training:
8
+ offline_steps: 80000
9
+ num_workers: 4
10
+ batch_size: 4
11
+ eval_freq: -1
12
+ log_freq: 100
13
+ save_checkpoint: true
14
+ save_freq: 10000
15
+ online_steps: 0
16
+ online_rollout_n_episodes: 1
17
+ online_rollout_batch_size: 1
18
+ online_steps_between_rollouts: 1
19
+ online_sampling_ratio: 0.5
20
+ online_env_seed: null
21
+ online_buffer_capacity: null
22
+ online_buffer_seed_size: 0
23
+ do_online_rollout_async: false
24
+ image_transforms:
25
+ enable: false
26
+ max_num_transforms: 3
27
+ random_order: false
28
+ brightness:
29
+ weight: 1
30
+ min_max:
31
+ - 0.8
32
+ - 1.2
33
+ contrast:
34
+ weight: 1
35
+ min_max:
36
+ - 0.8
37
+ - 1.2
38
+ saturation:
39
+ weight: 1
40
+ min_max:
41
+ - 0.5
42
+ - 1.5
43
+ hue:
44
+ weight: 1
45
+ min_max:
46
+ - -0.05
47
+ - 0.05
48
+ sharpness:
49
+ weight: 1
50
+ min_max:
51
+ - 0.8
52
+ - 1.2
53
+ lr: 1.0e-05
54
+ lr_backbone: 1.0e-05
55
+ weight_decay: 0.0001
56
+ grad_clip_norm: 10
57
+ delta_timestamps:
58
+ action:
59
+ - 0.0
60
+ - 0.03333333333333333
61
+ - 0.06666666666666667
62
+ - 0.1
63
+ - 0.13333333333333333
64
+ - 0.16666666666666666
65
+ - 0.2
66
+ - 0.23333333333333334
67
+ - 0.26666666666666666
68
+ - 0.3
69
+ - 0.3333333333333333
70
+ - 0.36666666666666664
71
+ - 0.4
72
+ - 0.43333333333333335
73
+ - 0.4666666666666667
74
+ - 0.5
75
+ - 0.5333333333333333
76
+ - 0.5666666666666667
77
+ - 0.6
78
+ - 0.6333333333333333
79
+ - 0.6666666666666666
80
+ - 0.7
81
+ - 0.7333333333333333
82
+ - 0.7666666666666667
83
+ - 0.8
84
+ - 0.8333333333333334
85
+ - 0.8666666666666667
86
+ - 0.9
87
+ - 0.9333333333333333
88
+ - 0.9666666666666667
89
+ - 1.0
90
+ - 1.0333333333333334
91
+ - 1.0666666666666667
92
+ - 1.1
93
+ - 1.1333333333333333
94
+ - 1.1666666666666667
95
+ - 1.2
96
+ - 1.2333333333333334
97
+ - 1.2666666666666666
98
+ - 1.3
99
+ - 1.3333333333333333
100
+ - 1.3666666666666667
101
+ - 1.4
102
+ - 1.4333333333333333
103
+ - 1.4666666666666666
104
+ - 1.5
105
+ - 1.5333333333333334
106
+ - 1.5666666666666667
107
+ - 1.6
108
+ - 1.6333333333333333
109
+ - 1.6666666666666667
110
+ - 1.7
111
+ - 1.7333333333333334
112
+ - 1.7666666666666666
113
+ - 1.8
114
+ - 1.8333333333333333
115
+ - 1.8666666666666667
116
+ - 1.9
117
+ - 1.9333333333333333
118
+ - 1.9666666666666666
119
+ - 2.0
120
+ - 2.033333333333333
121
+ - 2.066666666666667
122
+ - 2.1
123
+ - 2.1333333333333333
124
+ - 2.1666666666666665
125
+ - 2.2
126
+ - 2.2333333333333334
127
+ - 2.2666666666666666
128
+ - 2.3
129
+ - 2.3333333333333335
130
+ - 2.3666666666666667
131
+ - 2.4
132
+ - 2.433333333333333
133
+ - 2.466666666666667
134
+ - 2.5
135
+ - 2.533333333333333
136
+ - 2.566666666666667
137
+ - 2.6
138
+ - 2.6333333333333333
139
+ - 2.6666666666666665
140
+ - 2.7
141
+ - 2.7333333333333334
142
+ - 2.7666666666666666
143
+ - 2.8
144
+ - 2.8333333333333335
145
+ - 2.8666666666666667
146
+ - 2.9
147
+ - 2.933333333333333
148
+ - 2.966666666666667
149
+ - 3.0
150
+ - 3.033333333333333
151
+ - 3.066666666666667
152
+ - 3.1
153
+ - 3.1333333333333333
154
+ - 3.1666666666666665
155
+ - 3.2
156
+ - 3.2333333333333334
157
+ - 3.2666666666666666
158
+ - 3.3
159
+ eval:
160
+ n_episodes: 50
161
+ batch_size: 50
162
+ use_async_envs: false
163
+ wandb:
164
+ enable: true
165
+ disable_artifact: false
166
+ project: lerobot
167
+ notes: ''
168
+ fps: 30
169
+ env:
170
+ name: real_world
171
+ task: null
172
+ state_dim: 6
173
+ action_dim: 6
174
+ fps: ${fps}
175
+ override_dataset_stats:
176
+ observation.images.laptop:
177
+ mean:
178
+ - - - 0.485
179
+ - - - 0.456
180
+ - - - 0.406
181
+ std:
182
+ - - - 0.229
183
+ - - - 0.224
184
+ - - - 0.225
185
+ policy:
186
+ name: act
187
+ n_obs_steps: 1
188
+ chunk_size: 100
189
+ n_action_steps: 100
190
+ input_shapes:
191
+ observation.images.laptop:
192
+ - 3
193
+ - 480
194
+ - 640
195
+ observation.state:
196
+ - ${env.state_dim}
197
+ output_shapes:
198
+ action:
199
+ - ${env.action_dim}
200
+ input_normalization_modes:
201
+ observation.images.laptop: mean_std
202
+ observation.state: mean_std
203
+ output_normalization_modes:
204
+ action: mean_std
205
+ vision_backbone: resnet18
206
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
207
+ replace_final_stride_with_dilation: false
208
+ pre_norm: false
209
+ dim_model: 512
210
+ n_heads: 8
211
+ dim_feedforward: 3200
212
+ feedforward_activation: relu
213
+ n_encoder_layers: 4
214
+ n_decoder_layers: 1
215
+ use_vae: true
216
+ latent_dim: 32
217
+ n_vae_encoder_layers: 4
218
+ temporal_ensemble_momentum: null
219
+ dropout: 0.1
220
+ kl_weight: 10.0
checkpoints/020000/pretrained_model/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:63c4528101b0d5c49f3f86d952340d65c835531dcc234091fd01d0c5132a437d
3
+ size 206700800
checkpoints/020000/training_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:13eeaf5e547074603d8a069e40e5169cac3a50b94e71b3ec60ece802fd20efdd
3
+ size 412921871
checkpoints/030000/pretrained_model/README.md ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: lerobot
3
+ tags:
4
+ - act
5
+ - model_hub_mixin
6
+ - pytorch_model_hub_mixin
7
+ - robotics
8
+ ---
9
+
10
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
+ - Library: https://github.com/huggingface/lerobot
12
+ - Docs: [More Information Needed]
checkpoints/030000/pretrained_model/config.json ADDED
@@ -0,0 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.laptop": "mean_std",
9
+ "observation.state": "mean_std"
10
+ },
11
+ "input_shapes": {
12
+ "observation.images.laptop": [
13
+ 3,
14
+ 480,
15
+ 640
16
+ ],
17
+ "observation.state": [
18
+ 6
19
+ ]
20
+ },
21
+ "kl_weight": 10.0,
22
+ "latent_dim": 32,
23
+ "n_action_steps": 100,
24
+ "n_decoder_layers": 1,
25
+ "n_encoder_layers": 4,
26
+ "n_heads": 8,
27
+ "n_obs_steps": 1,
28
+ "n_vae_encoder_layers": 4,
29
+ "output_normalization_modes": {
30
+ "action": "mean_std"
31
+ },
32
+ "output_shapes": {
33
+ "action": [
34
+ 6
35
+ ]
36
+ },
37
+ "pre_norm": false,
38
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
39
+ "replace_final_stride_with_dilation": false,
40
+ "temporal_ensemble_coeff": null,
41
+ "use_vae": true,
42
+ "vision_backbone": "resnet18"
43
+ }
checkpoints/030000/pretrained_model/config.yaml ADDED
@@ -0,0 +1,220 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id: bchandaka/acm_move_square
6
+ video_backend: pyav
7
+ training:
8
+ offline_steps: 80000
9
+ num_workers: 4
10
+ batch_size: 4
11
+ eval_freq: -1
12
+ log_freq: 100
13
+ save_checkpoint: true
14
+ save_freq: 10000
15
+ online_steps: 0
16
+ online_rollout_n_episodes: 1
17
+ online_rollout_batch_size: 1
18
+ online_steps_between_rollouts: 1
19
+ online_sampling_ratio: 0.5
20
+ online_env_seed: null
21
+ online_buffer_capacity: null
22
+ online_buffer_seed_size: 0
23
+ do_online_rollout_async: false
24
+ image_transforms:
25
+ enable: false
26
+ max_num_transforms: 3
27
+ random_order: false
28
+ brightness:
29
+ weight: 1
30
+ min_max:
31
+ - 0.8
32
+ - 1.2
33
+ contrast:
34
+ weight: 1
35
+ min_max:
36
+ - 0.8
37
+ - 1.2
38
+ saturation:
39
+ weight: 1
40
+ min_max:
41
+ - 0.5
42
+ - 1.5
43
+ hue:
44
+ weight: 1
45
+ min_max:
46
+ - -0.05
47
+ - 0.05
48
+ sharpness:
49
+ weight: 1
50
+ min_max:
51
+ - 0.8
52
+ - 1.2
53
+ lr: 1.0e-05
54
+ lr_backbone: 1.0e-05
55
+ weight_decay: 0.0001
56
+ grad_clip_norm: 10
57
+ delta_timestamps:
58
+ action:
59
+ - 0.0
60
+ - 0.03333333333333333
61
+ - 0.06666666666666667
62
+ - 0.1
63
+ - 0.13333333333333333
64
+ - 0.16666666666666666
65
+ - 0.2
66
+ - 0.23333333333333334
67
+ - 0.26666666666666666
68
+ - 0.3
69
+ - 0.3333333333333333
70
+ - 0.36666666666666664
71
+ - 0.4
72
+ - 0.43333333333333335
73
+ - 0.4666666666666667
74
+ - 0.5
75
+ - 0.5333333333333333
76
+ - 0.5666666666666667
77
+ - 0.6
78
+ - 0.6333333333333333
79
+ - 0.6666666666666666
80
+ - 0.7
81
+ - 0.7333333333333333
82
+ - 0.7666666666666667
83
+ - 0.8
84
+ - 0.8333333333333334
85
+ - 0.8666666666666667
86
+ - 0.9
87
+ - 0.9333333333333333
88
+ - 0.9666666666666667
89
+ - 1.0
90
+ - 1.0333333333333334
91
+ - 1.0666666666666667
92
+ - 1.1
93
+ - 1.1333333333333333
94
+ - 1.1666666666666667
95
+ - 1.2
96
+ - 1.2333333333333334
97
+ - 1.2666666666666666
98
+ - 1.3
99
+ - 1.3333333333333333
100
+ - 1.3666666666666667
101
+ - 1.4
102
+ - 1.4333333333333333
103
+ - 1.4666666666666666
104
+ - 1.5
105
+ - 1.5333333333333334
106
+ - 1.5666666666666667
107
+ - 1.6
108
+ - 1.6333333333333333
109
+ - 1.6666666666666667
110
+ - 1.7
111
+ - 1.7333333333333334
112
+ - 1.7666666666666666
113
+ - 1.8
114
+ - 1.8333333333333333
115
+ - 1.8666666666666667
116
+ - 1.9
117
+ - 1.9333333333333333
118
+ - 1.9666666666666666
119
+ - 2.0
120
+ - 2.033333333333333
121
+ - 2.066666666666667
122
+ - 2.1
123
+ - 2.1333333333333333
124
+ - 2.1666666666666665
125
+ - 2.2
126
+ - 2.2333333333333334
127
+ - 2.2666666666666666
128
+ - 2.3
129
+ - 2.3333333333333335
130
+ - 2.3666666666666667
131
+ - 2.4
132
+ - 2.433333333333333
133
+ - 2.466666666666667
134
+ - 2.5
135
+ - 2.533333333333333
136
+ - 2.566666666666667
137
+ - 2.6
138
+ - 2.6333333333333333
139
+ - 2.6666666666666665
140
+ - 2.7
141
+ - 2.7333333333333334
142
+ - 2.7666666666666666
143
+ - 2.8
144
+ - 2.8333333333333335
145
+ - 2.8666666666666667
146
+ - 2.9
147
+ - 2.933333333333333
148
+ - 2.966666666666667
149
+ - 3.0
150
+ - 3.033333333333333
151
+ - 3.066666666666667
152
+ - 3.1
153
+ - 3.1333333333333333
154
+ - 3.1666666666666665
155
+ - 3.2
156
+ - 3.2333333333333334
157
+ - 3.2666666666666666
158
+ - 3.3
159
+ eval:
160
+ n_episodes: 50
161
+ batch_size: 50
162
+ use_async_envs: false
163
+ wandb:
164
+ enable: true
165
+ disable_artifact: false
166
+ project: lerobot
167
+ notes: ''
168
+ fps: 30
169
+ env:
170
+ name: real_world
171
+ task: null
172
+ state_dim: 6
173
+ action_dim: 6
174
+ fps: ${fps}
175
+ override_dataset_stats:
176
+ observation.images.laptop:
177
+ mean:
178
+ - - - 0.485
179
+ - - - 0.456
180
+ - - - 0.406
181
+ std:
182
+ - - - 0.229
183
+ - - - 0.224
184
+ - - - 0.225
185
+ policy:
186
+ name: act
187
+ n_obs_steps: 1
188
+ chunk_size: 100
189
+ n_action_steps: 100
190
+ input_shapes:
191
+ observation.images.laptop:
192
+ - 3
193
+ - 480
194
+ - 640
195
+ observation.state:
196
+ - ${env.state_dim}
197
+ output_shapes:
198
+ action:
199
+ - ${env.action_dim}
200
+ input_normalization_modes:
201
+ observation.images.laptop: mean_std
202
+ observation.state: mean_std
203
+ output_normalization_modes:
204
+ action: mean_std
205
+ vision_backbone: resnet18
206
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
207
+ replace_final_stride_with_dilation: false
208
+ pre_norm: false
209
+ dim_model: 512
210
+ n_heads: 8
211
+ dim_feedforward: 3200
212
+ feedforward_activation: relu
213
+ n_encoder_layers: 4
214
+ n_decoder_layers: 1
215
+ use_vae: true
216
+ latent_dim: 32
217
+ n_vae_encoder_layers: 4
218
+ temporal_ensemble_momentum: null
219
+ dropout: 0.1
220
+ kl_weight: 10.0
checkpoints/030000/pretrained_model/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:11d1d9aba5ea1abaeffec735df58d09ca06954930f4e763952bc6c909d052c9c
3
+ size 206700800
checkpoints/030000/training_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:373d29c634381508d2f6f1ce118b8a30b062ea39376e9ba92c839dc6e1c4b281
3
+ size 412921871
checkpoints/040000/pretrained_model/README.md ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: lerobot
3
+ tags:
4
+ - act
5
+ - model_hub_mixin
6
+ - pytorch_model_hub_mixin
7
+ - robotics
8
+ ---
9
+
10
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
+ - Library: https://github.com/huggingface/lerobot
12
+ - Docs: [More Information Needed]
checkpoints/040000/pretrained_model/config.json ADDED
@@ -0,0 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.laptop": "mean_std",
9
+ "observation.state": "mean_std"
10
+ },
11
+ "input_shapes": {
12
+ "observation.images.laptop": [
13
+ 3,
14
+ 480,
15
+ 640
16
+ ],
17
+ "observation.state": [
18
+ 6
19
+ ]
20
+ },
21
+ "kl_weight": 10.0,
22
+ "latent_dim": 32,
23
+ "n_action_steps": 100,
24
+ "n_decoder_layers": 1,
25
+ "n_encoder_layers": 4,
26
+ "n_heads": 8,
27
+ "n_obs_steps": 1,
28
+ "n_vae_encoder_layers": 4,
29
+ "output_normalization_modes": {
30
+ "action": "mean_std"
31
+ },
32
+ "output_shapes": {
33
+ "action": [
34
+ 6
35
+ ]
36
+ },
37
+ "pre_norm": false,
38
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
39
+ "replace_final_stride_with_dilation": false,
40
+ "temporal_ensemble_coeff": null,
41
+ "use_vae": true,
42
+ "vision_backbone": "resnet18"
43
+ }
checkpoints/040000/pretrained_model/config.yaml ADDED
@@ -0,0 +1,220 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id: bchandaka/acm_move_square
6
+ video_backend: pyav
7
+ training:
8
+ offline_steps: 80000
9
+ num_workers: 4
10
+ batch_size: 4
11
+ eval_freq: -1
12
+ log_freq: 100
13
+ save_checkpoint: true
14
+ save_freq: 10000
15
+ online_steps: 0
16
+ online_rollout_n_episodes: 1
17
+ online_rollout_batch_size: 1
18
+ online_steps_between_rollouts: 1
19
+ online_sampling_ratio: 0.5
20
+ online_env_seed: null
21
+ online_buffer_capacity: null
22
+ online_buffer_seed_size: 0
23
+ do_online_rollout_async: false
24
+ image_transforms:
25
+ enable: false
26
+ max_num_transforms: 3
27
+ random_order: false
28
+ brightness:
29
+ weight: 1
30
+ min_max:
31
+ - 0.8
32
+ - 1.2
33
+ contrast:
34
+ weight: 1
35
+ min_max:
36
+ - 0.8
37
+ - 1.2
38
+ saturation:
39
+ weight: 1
40
+ min_max:
41
+ - 0.5
42
+ - 1.5
43
+ hue:
44
+ weight: 1
45
+ min_max:
46
+ - -0.05
47
+ - 0.05
48
+ sharpness:
49
+ weight: 1
50
+ min_max:
51
+ - 0.8
52
+ - 1.2
53
+ lr: 1.0e-05
54
+ lr_backbone: 1.0e-05
55
+ weight_decay: 0.0001
56
+ grad_clip_norm: 10
57
+ delta_timestamps:
58
+ action:
59
+ - 0.0
60
+ - 0.03333333333333333
61
+ - 0.06666666666666667
62
+ - 0.1
63
+ - 0.13333333333333333
64
+ - 0.16666666666666666
65
+ - 0.2
66
+ - 0.23333333333333334
67
+ - 0.26666666666666666
68
+ - 0.3
69
+ - 0.3333333333333333
70
+ - 0.36666666666666664
71
+ - 0.4
72
+ - 0.43333333333333335
73
+ - 0.4666666666666667
74
+ - 0.5
75
+ - 0.5333333333333333
76
+ - 0.5666666666666667
77
+ - 0.6
78
+ - 0.6333333333333333
79
+ - 0.6666666666666666
80
+ - 0.7
81
+ - 0.7333333333333333
82
+ - 0.7666666666666667
83
+ - 0.8
84
+ - 0.8333333333333334
85
+ - 0.8666666666666667
86
+ - 0.9
87
+ - 0.9333333333333333
88
+ - 0.9666666666666667
89
+ - 1.0
90
+ - 1.0333333333333334
91
+ - 1.0666666666666667
92
+ - 1.1
93
+ - 1.1333333333333333
94
+ - 1.1666666666666667
95
+ - 1.2
96
+ - 1.2333333333333334
97
+ - 1.2666666666666666
98
+ - 1.3
99
+ - 1.3333333333333333
100
+ - 1.3666666666666667
101
+ - 1.4
102
+ - 1.4333333333333333
103
+ - 1.4666666666666666
104
+ - 1.5
105
+ - 1.5333333333333334
106
+ - 1.5666666666666667
107
+ - 1.6
108
+ - 1.6333333333333333
109
+ - 1.6666666666666667
110
+ - 1.7
111
+ - 1.7333333333333334
112
+ - 1.7666666666666666
113
+ - 1.8
114
+ - 1.8333333333333333
115
+ - 1.8666666666666667
116
+ - 1.9
117
+ - 1.9333333333333333
118
+ - 1.9666666666666666
119
+ - 2.0
120
+ - 2.033333333333333
121
+ - 2.066666666666667
122
+ - 2.1
123
+ - 2.1333333333333333
124
+ - 2.1666666666666665
125
+ - 2.2
126
+ - 2.2333333333333334
127
+ - 2.2666666666666666
128
+ - 2.3
129
+ - 2.3333333333333335
130
+ - 2.3666666666666667
131
+ - 2.4
132
+ - 2.433333333333333
133
+ - 2.466666666666667
134
+ - 2.5
135
+ - 2.533333333333333
136
+ - 2.566666666666667
137
+ - 2.6
138
+ - 2.6333333333333333
139
+ - 2.6666666666666665
140
+ - 2.7
141
+ - 2.7333333333333334
142
+ - 2.7666666666666666
143
+ - 2.8
144
+ - 2.8333333333333335
145
+ - 2.8666666666666667
146
+ - 2.9
147
+ - 2.933333333333333
148
+ - 2.966666666666667
149
+ - 3.0
150
+ - 3.033333333333333
151
+ - 3.066666666666667
152
+ - 3.1
153
+ - 3.1333333333333333
154
+ - 3.1666666666666665
155
+ - 3.2
156
+ - 3.2333333333333334
157
+ - 3.2666666666666666
158
+ - 3.3
159
+ eval:
160
+ n_episodes: 50
161
+ batch_size: 50
162
+ use_async_envs: false
163
+ wandb:
164
+ enable: true
165
+ disable_artifact: false
166
+ project: lerobot
167
+ notes: ''
168
+ fps: 30
169
+ env:
170
+ name: real_world
171
+ task: null
172
+ state_dim: 6
173
+ action_dim: 6
174
+ fps: ${fps}
175
+ override_dataset_stats:
176
+ observation.images.laptop:
177
+ mean:
178
+ - - - 0.485
179
+ - - - 0.456
180
+ - - - 0.406
181
+ std:
182
+ - - - 0.229
183
+ - - - 0.224
184
+ - - - 0.225
185
+ policy:
186
+ name: act
187
+ n_obs_steps: 1
188
+ chunk_size: 100
189
+ n_action_steps: 100
190
+ input_shapes:
191
+ observation.images.laptop:
192
+ - 3
193
+ - 480
194
+ - 640
195
+ observation.state:
196
+ - ${env.state_dim}
197
+ output_shapes:
198
+ action:
199
+ - ${env.action_dim}
200
+ input_normalization_modes:
201
+ observation.images.laptop: mean_std
202
+ observation.state: mean_std
203
+ output_normalization_modes:
204
+ action: mean_std
205
+ vision_backbone: resnet18
206
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
207
+ replace_final_stride_with_dilation: false
208
+ pre_norm: false
209
+ dim_model: 512
210
+ n_heads: 8
211
+ dim_feedforward: 3200
212
+ feedforward_activation: relu
213
+ n_encoder_layers: 4
214
+ n_decoder_layers: 1
215
+ use_vae: true
216
+ latent_dim: 32
217
+ n_vae_encoder_layers: 4
218
+ temporal_ensemble_momentum: null
219
+ dropout: 0.1
220
+ kl_weight: 10.0
checkpoints/040000/pretrained_model/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:456742650197607d233a1406d1048a56952813194e14783053713c49de6f4c7c
3
+ size 206700800
checkpoints/040000/training_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6a68f229519fdd2e2eebffe70bfb83af8a94efd3ba8813fc399f3d0055e1b895
3
+ size 412921871
checkpoints/050000/pretrained_model/README.md ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: lerobot
3
+ tags:
4
+ - act
5
+ - model_hub_mixin
6
+ - pytorch_model_hub_mixin
7
+ - robotics
8
+ ---
9
+
10
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
+ - Library: https://github.com/huggingface/lerobot
12
+ - Docs: [More Information Needed]
checkpoints/050000/pretrained_model/config.json ADDED
@@ -0,0 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.laptop": "mean_std",
9
+ "observation.state": "mean_std"
10
+ },
11
+ "input_shapes": {
12
+ "observation.images.laptop": [
13
+ 3,
14
+ 480,
15
+ 640
16
+ ],
17
+ "observation.state": [
18
+ 6
19
+ ]
20
+ },
21
+ "kl_weight": 10.0,
22
+ "latent_dim": 32,
23
+ "n_action_steps": 100,
24
+ "n_decoder_layers": 1,
25
+ "n_encoder_layers": 4,
26
+ "n_heads": 8,
27
+ "n_obs_steps": 1,
28
+ "n_vae_encoder_layers": 4,
29
+ "output_normalization_modes": {
30
+ "action": "mean_std"
31
+ },
32
+ "output_shapes": {
33
+ "action": [
34
+ 6
35
+ ]
36
+ },
37
+ "pre_norm": false,
38
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
39
+ "replace_final_stride_with_dilation": false,
40
+ "temporal_ensemble_coeff": null,
41
+ "use_vae": true,
42
+ "vision_backbone": "resnet18"
43
+ }
checkpoints/050000/pretrained_model/config.yaml ADDED
@@ -0,0 +1,220 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id: bchandaka/acm_move_square
6
+ video_backend: pyav
7
+ training:
8
+ offline_steps: 80000
9
+ num_workers: 4
10
+ batch_size: 4
11
+ eval_freq: -1
12
+ log_freq: 100
13
+ save_checkpoint: true
14
+ save_freq: 10000
15
+ online_steps: 0
16
+ online_rollout_n_episodes: 1
17
+ online_rollout_batch_size: 1
18
+ online_steps_between_rollouts: 1
19
+ online_sampling_ratio: 0.5
20
+ online_env_seed: null
21
+ online_buffer_capacity: null
22
+ online_buffer_seed_size: 0
23
+ do_online_rollout_async: false
24
+ image_transforms:
25
+ enable: false
26
+ max_num_transforms: 3
27
+ random_order: false
28
+ brightness:
29
+ weight: 1
30
+ min_max:
31
+ - 0.8
32
+ - 1.2
33
+ contrast:
34
+ weight: 1
35
+ min_max:
36
+ - 0.8
37
+ - 1.2
38
+ saturation:
39
+ weight: 1
40
+ min_max:
41
+ - 0.5
42
+ - 1.5
43
+ hue:
44
+ weight: 1
45
+ min_max:
46
+ - -0.05
47
+ - 0.05
48
+ sharpness:
49
+ weight: 1
50
+ min_max:
51
+ - 0.8
52
+ - 1.2
53
+ lr: 1.0e-05
54
+ lr_backbone: 1.0e-05
55
+ weight_decay: 0.0001
56
+ grad_clip_norm: 10
57
+ delta_timestamps:
58
+ action:
59
+ - 0.0
60
+ - 0.03333333333333333
61
+ - 0.06666666666666667
62
+ - 0.1
63
+ - 0.13333333333333333
64
+ - 0.16666666666666666
65
+ - 0.2
66
+ - 0.23333333333333334
67
+ - 0.26666666666666666
68
+ - 0.3
69
+ - 0.3333333333333333
70
+ - 0.36666666666666664
71
+ - 0.4
72
+ - 0.43333333333333335
73
+ - 0.4666666666666667
74
+ - 0.5
75
+ - 0.5333333333333333
76
+ - 0.5666666666666667
77
+ - 0.6
78
+ - 0.6333333333333333
79
+ - 0.6666666666666666
80
+ - 0.7
81
+ - 0.7333333333333333
82
+ - 0.7666666666666667
83
+ - 0.8
84
+ - 0.8333333333333334
85
+ - 0.8666666666666667
86
+ - 0.9
87
+ - 0.9333333333333333
88
+ - 0.9666666666666667
89
+ - 1.0
90
+ - 1.0333333333333334
91
+ - 1.0666666666666667
92
+ - 1.1
93
+ - 1.1333333333333333
94
+ - 1.1666666666666667
95
+ - 1.2
96
+ - 1.2333333333333334
97
+ - 1.2666666666666666
98
+ - 1.3
99
+ - 1.3333333333333333
100
+ - 1.3666666666666667
101
+ - 1.4
102
+ - 1.4333333333333333
103
+ - 1.4666666666666666
104
+ - 1.5
105
+ - 1.5333333333333334
106
+ - 1.5666666666666667
107
+ - 1.6
108
+ - 1.6333333333333333
109
+ - 1.6666666666666667
110
+ - 1.7
111
+ - 1.7333333333333334
112
+ - 1.7666666666666666
113
+ - 1.8
114
+ - 1.8333333333333333
115
+ - 1.8666666666666667
116
+ - 1.9
117
+ - 1.9333333333333333
118
+ - 1.9666666666666666
119
+ - 2.0
120
+ - 2.033333333333333
121
+ - 2.066666666666667
122
+ - 2.1
123
+ - 2.1333333333333333
124
+ - 2.1666666666666665
125
+ - 2.2
126
+ - 2.2333333333333334
127
+ - 2.2666666666666666
128
+ - 2.3
129
+ - 2.3333333333333335
130
+ - 2.3666666666666667
131
+ - 2.4
132
+ - 2.433333333333333
133
+ - 2.466666666666667
134
+ - 2.5
135
+ - 2.533333333333333
136
+ - 2.566666666666667
137
+ - 2.6
138
+ - 2.6333333333333333
139
+ - 2.6666666666666665
140
+ - 2.7
141
+ - 2.7333333333333334
142
+ - 2.7666666666666666
143
+ - 2.8
144
+ - 2.8333333333333335
145
+ - 2.8666666666666667
146
+ - 2.9
147
+ - 2.933333333333333
148
+ - 2.966666666666667
149
+ - 3.0
150
+ - 3.033333333333333
151
+ - 3.066666666666667
152
+ - 3.1
153
+ - 3.1333333333333333
154
+ - 3.1666666666666665
155
+ - 3.2
156
+ - 3.2333333333333334
157
+ - 3.2666666666666666
158
+ - 3.3
159
+ eval:
160
+ n_episodes: 50
161
+ batch_size: 50
162
+ use_async_envs: false
163
+ wandb:
164
+ enable: true
165
+ disable_artifact: false
166
+ project: lerobot
167
+ notes: ''
168
+ fps: 30
169
+ env:
170
+ name: real_world
171
+ task: null
172
+ state_dim: 6
173
+ action_dim: 6
174
+ fps: ${fps}
175
+ override_dataset_stats:
176
+ observation.images.laptop:
177
+ mean:
178
+ - - - 0.485
179
+ - - - 0.456
180
+ - - - 0.406
181
+ std:
182
+ - - - 0.229
183
+ - - - 0.224
184
+ - - - 0.225
185
+ policy:
186
+ name: act
187
+ n_obs_steps: 1
188
+ chunk_size: 100
189
+ n_action_steps: 100
190
+ input_shapes:
191
+ observation.images.laptop:
192
+ - 3
193
+ - 480
194
+ - 640
195
+ observation.state:
196
+ - ${env.state_dim}
197
+ output_shapes:
198
+ action:
199
+ - ${env.action_dim}
200
+ input_normalization_modes:
201
+ observation.images.laptop: mean_std
202
+ observation.state: mean_std
203
+ output_normalization_modes:
204
+ action: mean_std
205
+ vision_backbone: resnet18
206
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
207
+ replace_final_stride_with_dilation: false
208
+ pre_norm: false
209
+ dim_model: 512
210
+ n_heads: 8
211
+ dim_feedforward: 3200
212
+ feedforward_activation: relu
213
+ n_encoder_layers: 4
214
+ n_decoder_layers: 1
215
+ use_vae: true
216
+ latent_dim: 32
217
+ n_vae_encoder_layers: 4
218
+ temporal_ensemble_momentum: null
219
+ dropout: 0.1
220
+ kl_weight: 10.0
checkpoints/050000/pretrained_model/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:16d37433b4f096622f13dc7037e38bb56c5bf530b3aed850a47aa9503deb7186
3
+ size 206700800
checkpoints/050000/training_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d17e08456cd8cc329d1972ea0ba1c2cce7b42a5c64279b1bd2a3dd14adf7ccde
3
+ size 412921871
checkpoints/060000/pretrained_model/README.md ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: lerobot
3
+ tags:
4
+ - act
5
+ - model_hub_mixin
6
+ - pytorch_model_hub_mixin
7
+ - robotics
8
+ ---
9
+
10
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
+ - Library: https://github.com/huggingface/lerobot
12
+ - Docs: [More Information Needed]
checkpoints/060000/pretrained_model/config.json ADDED
@@ -0,0 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.laptop": "mean_std",
9
+ "observation.state": "mean_std"
10
+ },
11
+ "input_shapes": {
12
+ "observation.images.laptop": [
13
+ 3,
14
+ 480,
15
+ 640
16
+ ],
17
+ "observation.state": [
18
+ 6
19
+ ]
20
+ },
21
+ "kl_weight": 10.0,
22
+ "latent_dim": 32,
23
+ "n_action_steps": 100,
24
+ "n_decoder_layers": 1,
25
+ "n_encoder_layers": 4,
26
+ "n_heads": 8,
27
+ "n_obs_steps": 1,
28
+ "n_vae_encoder_layers": 4,
29
+ "output_normalization_modes": {
30
+ "action": "mean_std"
31
+ },
32
+ "output_shapes": {
33
+ "action": [
34
+ 6
35
+ ]
36
+ },
37
+ "pre_norm": false,
38
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
39
+ "replace_final_stride_with_dilation": false,
40
+ "temporal_ensemble_coeff": null,
41
+ "use_vae": true,
42
+ "vision_backbone": "resnet18"
43
+ }
checkpoints/060000/pretrained_model/config.yaml ADDED
@@ -0,0 +1,220 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id: bchandaka/acm_move_square
6
+ video_backend: pyav
7
+ training:
8
+ offline_steps: 80000
9
+ num_workers: 4
10
+ batch_size: 4
11
+ eval_freq: -1
12
+ log_freq: 100
13
+ save_checkpoint: true
14
+ save_freq: 10000
15
+ online_steps: 0
16
+ online_rollout_n_episodes: 1
17
+ online_rollout_batch_size: 1
18
+ online_steps_between_rollouts: 1
19
+ online_sampling_ratio: 0.5
20
+ online_env_seed: null
21
+ online_buffer_capacity: null
22
+ online_buffer_seed_size: 0
23
+ do_online_rollout_async: false
24
+ image_transforms:
25
+ enable: false
26
+ max_num_transforms: 3
27
+ random_order: false
28
+ brightness:
29
+ weight: 1
30
+ min_max:
31
+ - 0.8
32
+ - 1.2
33
+ contrast:
34
+ weight: 1
35
+ min_max:
36
+ - 0.8
37
+ - 1.2
38
+ saturation:
39
+ weight: 1
40
+ min_max:
41
+ - 0.5
42
+ - 1.5
43
+ hue:
44
+ weight: 1
45
+ min_max:
46
+ - -0.05
47
+ - 0.05
48
+ sharpness:
49
+ weight: 1
50
+ min_max:
51
+ - 0.8
52
+ - 1.2
53
+ lr: 1.0e-05
54
+ lr_backbone: 1.0e-05
55
+ weight_decay: 0.0001
56
+ grad_clip_norm: 10
57
+ delta_timestamps:
58
+ action:
59
+ - 0.0
60
+ - 0.03333333333333333
61
+ - 0.06666666666666667
62
+ - 0.1
63
+ - 0.13333333333333333
64
+ - 0.16666666666666666
65
+ - 0.2
66
+ - 0.23333333333333334
67
+ - 0.26666666666666666
68
+ - 0.3
69
+ - 0.3333333333333333
70
+ - 0.36666666666666664
71
+ - 0.4
72
+ - 0.43333333333333335
73
+ - 0.4666666666666667
74
+ - 0.5
75
+ - 0.5333333333333333
76
+ - 0.5666666666666667
77
+ - 0.6
78
+ - 0.6333333333333333
79
+ - 0.6666666666666666
80
+ - 0.7
81
+ - 0.7333333333333333
82
+ - 0.7666666666666667
83
+ - 0.8
84
+ - 0.8333333333333334
85
+ - 0.8666666666666667
86
+ - 0.9
87
+ - 0.9333333333333333
88
+ - 0.9666666666666667
89
+ - 1.0
90
+ - 1.0333333333333334
91
+ - 1.0666666666666667
92
+ - 1.1
93
+ - 1.1333333333333333
94
+ - 1.1666666666666667
95
+ - 1.2
96
+ - 1.2333333333333334
97
+ - 1.2666666666666666
98
+ - 1.3
99
+ - 1.3333333333333333
100
+ - 1.3666666666666667
101
+ - 1.4
102
+ - 1.4333333333333333
103
+ - 1.4666666666666666
104
+ - 1.5
105
+ - 1.5333333333333334
106
+ - 1.5666666666666667
107
+ - 1.6
108
+ - 1.6333333333333333
109
+ - 1.6666666666666667
110
+ - 1.7
111
+ - 1.7333333333333334
112
+ - 1.7666666666666666
113
+ - 1.8
114
+ - 1.8333333333333333
115
+ - 1.8666666666666667
116
+ - 1.9
117
+ - 1.9333333333333333
118
+ - 1.9666666666666666
119
+ - 2.0
120
+ - 2.033333333333333
121
+ - 2.066666666666667
122
+ - 2.1
123
+ - 2.1333333333333333
124
+ - 2.1666666666666665
125
+ - 2.2
126
+ - 2.2333333333333334
127
+ - 2.2666666666666666
128
+ - 2.3
129
+ - 2.3333333333333335
130
+ - 2.3666666666666667
131
+ - 2.4
132
+ - 2.433333333333333
133
+ - 2.466666666666667
134
+ - 2.5
135
+ - 2.533333333333333
136
+ - 2.566666666666667
137
+ - 2.6
138
+ - 2.6333333333333333
139
+ - 2.6666666666666665
140
+ - 2.7
141
+ - 2.7333333333333334
142
+ - 2.7666666666666666
143
+ - 2.8
144
+ - 2.8333333333333335
145
+ - 2.8666666666666667
146
+ - 2.9
147
+ - 2.933333333333333
148
+ - 2.966666666666667
149
+ - 3.0
150
+ - 3.033333333333333
151
+ - 3.066666666666667
152
+ - 3.1
153
+ - 3.1333333333333333
154
+ - 3.1666666666666665
155
+ - 3.2
156
+ - 3.2333333333333334
157
+ - 3.2666666666666666
158
+ - 3.3
159
+ eval:
160
+ n_episodes: 50
161
+ batch_size: 50
162
+ use_async_envs: false
163
+ wandb:
164
+ enable: true
165
+ disable_artifact: false
166
+ project: lerobot
167
+ notes: ''
168
+ fps: 30
169
+ env:
170
+ name: real_world
171
+ task: null
172
+ state_dim: 6
173
+ action_dim: 6
174
+ fps: ${fps}
175
+ override_dataset_stats:
176
+ observation.images.laptop:
177
+ mean:
178
+ - - - 0.485
179
+ - - - 0.456
180
+ - - - 0.406
181
+ std:
182
+ - - - 0.229
183
+ - - - 0.224
184
+ - - - 0.225
185
+ policy:
186
+ name: act
187
+ n_obs_steps: 1
188
+ chunk_size: 100
189
+ n_action_steps: 100
190
+ input_shapes:
191
+ observation.images.laptop:
192
+ - 3
193
+ - 480
194
+ - 640
195
+ observation.state:
196
+ - ${env.state_dim}
197
+ output_shapes:
198
+ action:
199
+ - ${env.action_dim}
200
+ input_normalization_modes:
201
+ observation.images.laptop: mean_std
202
+ observation.state: mean_std
203
+ output_normalization_modes:
204
+ action: mean_std
205
+ vision_backbone: resnet18
206
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
207
+ replace_final_stride_with_dilation: false
208
+ pre_norm: false
209
+ dim_model: 512
210
+ n_heads: 8
211
+ dim_feedforward: 3200
212
+ feedforward_activation: relu
213
+ n_encoder_layers: 4
214
+ n_decoder_layers: 1
215
+ use_vae: true
216
+ latent_dim: 32
217
+ n_vae_encoder_layers: 4
218
+ temporal_ensemble_momentum: null
219
+ dropout: 0.1
220
+ kl_weight: 10.0
checkpoints/060000/pretrained_model/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:a4414c9de4e08e8a39ece926aebdd0a21f9adf8894f38584ddd78fba0973c02b
3
+ size 206700800
checkpoints/060000/training_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cf770a2292223cadafcf99eb68b83e8012107e47e81be8d22168f2571319d07c
3
+ size 412921871
checkpoints/070000/pretrained_model/README.md ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: lerobot
3
+ tags:
4
+ - act
5
+ - model_hub_mixin
6
+ - pytorch_model_hub_mixin
7
+ - robotics
8
+ ---
9
+
10
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
+ - Library: https://github.com/huggingface/lerobot
12
+ - Docs: [More Information Needed]
checkpoints/070000/pretrained_model/config.json ADDED
@@ -0,0 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.laptop": "mean_std",
9
+ "observation.state": "mean_std"
10
+ },
11
+ "input_shapes": {
12
+ "observation.images.laptop": [
13
+ 3,
14
+ 480,
15
+ 640
16
+ ],
17
+ "observation.state": [
18
+ 6
19
+ ]
20
+ },
21
+ "kl_weight": 10.0,
22
+ "latent_dim": 32,
23
+ "n_action_steps": 100,
24
+ "n_decoder_layers": 1,
25
+ "n_encoder_layers": 4,
26
+ "n_heads": 8,
27
+ "n_obs_steps": 1,
28
+ "n_vae_encoder_layers": 4,
29
+ "output_normalization_modes": {
30
+ "action": "mean_std"
31
+ },
32
+ "output_shapes": {
33
+ "action": [
34
+ 6
35
+ ]
36
+ },
37
+ "pre_norm": false,
38
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
39
+ "replace_final_stride_with_dilation": false,
40
+ "temporal_ensemble_coeff": null,
41
+ "use_vae": true,
42
+ "vision_backbone": "resnet18"
43
+ }
checkpoints/070000/pretrained_model/config.yaml ADDED
@@ -0,0 +1,220 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id: bchandaka/acm_move_square
6
+ video_backend: pyav
7
+ training:
8
+ offline_steps: 80000
9
+ num_workers: 4
10
+ batch_size: 4
11
+ eval_freq: -1
12
+ log_freq: 100
13
+ save_checkpoint: true
14
+ save_freq: 10000
15
+ online_steps: 0
16
+ online_rollout_n_episodes: 1
17
+ online_rollout_batch_size: 1
18
+ online_steps_between_rollouts: 1
19
+ online_sampling_ratio: 0.5
20
+ online_env_seed: null
21
+ online_buffer_capacity: null
22
+ online_buffer_seed_size: 0
23
+ do_online_rollout_async: false
24
+ image_transforms:
25
+ enable: false
26
+ max_num_transforms: 3
27
+ random_order: false
28
+ brightness:
29
+ weight: 1
30
+ min_max:
31
+ - 0.8
32
+ - 1.2
33
+ contrast:
34
+ weight: 1
35
+ min_max:
36
+ - 0.8
37
+ - 1.2
38
+ saturation:
39
+ weight: 1
40
+ min_max:
41
+ - 0.5
42
+ - 1.5
43
+ hue:
44
+ weight: 1
45
+ min_max:
46
+ - -0.05
47
+ - 0.05
48
+ sharpness:
49
+ weight: 1
50
+ min_max:
51
+ - 0.8
52
+ - 1.2
53
+ lr: 1.0e-05
54
+ lr_backbone: 1.0e-05
55
+ weight_decay: 0.0001
56
+ grad_clip_norm: 10
57
+ delta_timestamps:
58
+ action:
59
+ - 0.0
60
+ - 0.03333333333333333
61
+ - 0.06666666666666667
62
+ - 0.1
63
+ - 0.13333333333333333
64
+ - 0.16666666666666666
65
+ - 0.2
66
+ - 0.23333333333333334
67
+ - 0.26666666666666666
68
+ - 0.3
69
+ - 0.3333333333333333
70
+ - 0.36666666666666664
71
+ - 0.4
72
+ - 0.43333333333333335
73
+ - 0.4666666666666667
74
+ - 0.5
75
+ - 0.5333333333333333
76
+ - 0.5666666666666667
77
+ - 0.6
78
+ - 0.6333333333333333
79
+ - 0.6666666666666666
80
+ - 0.7
81
+ - 0.7333333333333333
82
+ - 0.7666666666666667
83
+ - 0.8
84
+ - 0.8333333333333334
85
+ - 0.8666666666666667
86
+ - 0.9
87
+ - 0.9333333333333333
88
+ - 0.9666666666666667
89
+ - 1.0
90
+ - 1.0333333333333334
91
+ - 1.0666666666666667
92
+ - 1.1
93
+ - 1.1333333333333333
94
+ - 1.1666666666666667
95
+ - 1.2
96
+ - 1.2333333333333334
97
+ - 1.2666666666666666
98
+ - 1.3
99
+ - 1.3333333333333333
100
+ - 1.3666666666666667
101
+ - 1.4
102
+ - 1.4333333333333333
103
+ - 1.4666666666666666
104
+ - 1.5
105
+ - 1.5333333333333334
106
+ - 1.5666666666666667
107
+ - 1.6
108
+ - 1.6333333333333333
109
+ - 1.6666666666666667
110
+ - 1.7
111
+ - 1.7333333333333334
112
+ - 1.7666666666666666
113
+ - 1.8
114
+ - 1.8333333333333333
115
+ - 1.8666666666666667
116
+ - 1.9
117
+ - 1.9333333333333333
118
+ - 1.9666666666666666
119
+ - 2.0
120
+ - 2.033333333333333
121
+ - 2.066666666666667
122
+ - 2.1
123
+ - 2.1333333333333333
124
+ - 2.1666666666666665
125
+ - 2.2
126
+ - 2.2333333333333334
127
+ - 2.2666666666666666
128
+ - 2.3
129
+ - 2.3333333333333335
130
+ - 2.3666666666666667
131
+ - 2.4
132
+ - 2.433333333333333
133
+ - 2.466666666666667
134
+ - 2.5
135
+ - 2.533333333333333
136
+ - 2.566666666666667
137
+ - 2.6
138
+ - 2.6333333333333333
139
+ - 2.6666666666666665
140
+ - 2.7
141
+ - 2.7333333333333334
142
+ - 2.7666666666666666
143
+ - 2.8
144
+ - 2.8333333333333335
145
+ - 2.8666666666666667
146
+ - 2.9
147
+ - 2.933333333333333
148
+ - 2.966666666666667
149
+ - 3.0
150
+ - 3.033333333333333
151
+ - 3.066666666666667
152
+ - 3.1
153
+ - 3.1333333333333333
154
+ - 3.1666666666666665
155
+ - 3.2
156
+ - 3.2333333333333334
157
+ - 3.2666666666666666
158
+ - 3.3
159
+ eval:
160
+ n_episodes: 50
161
+ batch_size: 50
162
+ use_async_envs: false
163
+ wandb:
164
+ enable: true
165
+ disable_artifact: false
166
+ project: lerobot
167
+ notes: ''
168
+ fps: 30
169
+ env:
170
+ name: real_world
171
+ task: null
172
+ state_dim: 6
173
+ action_dim: 6
174
+ fps: ${fps}
175
+ override_dataset_stats:
176
+ observation.images.laptop:
177
+ mean:
178
+ - - - 0.485
179
+ - - - 0.456
180
+ - - - 0.406
181
+ std:
182
+ - - - 0.229
183
+ - - - 0.224
184
+ - - - 0.225
185
+ policy:
186
+ name: act
187
+ n_obs_steps: 1
188
+ chunk_size: 100
189
+ n_action_steps: 100
190
+ input_shapes:
191
+ observation.images.laptop:
192
+ - 3
193
+ - 480
194
+ - 640
195
+ observation.state:
196
+ - ${env.state_dim}
197
+ output_shapes:
198
+ action:
199
+ - ${env.action_dim}
200
+ input_normalization_modes:
201
+ observation.images.laptop: mean_std
202
+ observation.state: mean_std
203
+ output_normalization_modes:
204
+ action: mean_std
205
+ vision_backbone: resnet18
206
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
207
+ replace_final_stride_with_dilation: false
208
+ pre_norm: false
209
+ dim_model: 512
210
+ n_heads: 8
211
+ dim_feedforward: 3200
212
+ feedforward_activation: relu
213
+ n_encoder_layers: 4
214
+ n_decoder_layers: 1
215
+ use_vae: true
216
+ latent_dim: 32
217
+ n_vae_encoder_layers: 4
218
+ temporal_ensemble_momentum: null
219
+ dropout: 0.1
220
+ kl_weight: 10.0
checkpoints/070000/pretrained_model/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6c1c0664e4a439e6bf9a0f7747c297b4357cb1c466a0e50ab4f36445703c457f
3
+ size 206700800
checkpoints/070000/training_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c020c76cfd648de4045313850e15939674904d9621ea8e3c58cf90d0e69bdfce
3
+ size 412921871
checkpoints/080000/pretrained_model/README.md ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: lerobot
3
+ tags:
4
+ - act
5
+ - model_hub_mixin
6
+ - pytorch_model_hub_mixin
7
+ - robotics
8
+ ---
9
+
10
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
+ - Library: https://github.com/huggingface/lerobot
12
+ - Docs: [More Information Needed]
checkpoints/080000/pretrained_model/config.json ADDED
@@ -0,0 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.laptop": "mean_std",
9
+ "observation.state": "mean_std"
10
+ },
11
+ "input_shapes": {
12
+ "observation.images.laptop": [
13
+ 3,
14
+ 480,
15
+ 640
16
+ ],
17
+ "observation.state": [
18
+ 6
19
+ ]
20
+ },
21
+ "kl_weight": 10.0,
22
+ "latent_dim": 32,
23
+ "n_action_steps": 100,
24
+ "n_decoder_layers": 1,
25
+ "n_encoder_layers": 4,
26
+ "n_heads": 8,
27
+ "n_obs_steps": 1,
28
+ "n_vae_encoder_layers": 4,
29
+ "output_normalization_modes": {
30
+ "action": "mean_std"
31
+ },
32
+ "output_shapes": {
33
+ "action": [
34
+ 6
35
+ ]
36
+ },
37
+ "pre_norm": false,
38
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
39
+ "replace_final_stride_with_dilation": false,
40
+ "temporal_ensemble_coeff": null,
41
+ "use_vae": true,
42
+ "vision_backbone": "resnet18"
43
+ }
checkpoints/080000/pretrained_model/config.yaml ADDED
@@ -0,0 +1,220 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id: bchandaka/acm_move_square
6
+ video_backend: pyav
7
+ training:
8
+ offline_steps: 80000
9
+ num_workers: 4
10
+ batch_size: 4
11
+ eval_freq: -1
12
+ log_freq: 100
13
+ save_checkpoint: true
14
+ save_freq: 10000
15
+ online_steps: 0
16
+ online_rollout_n_episodes: 1
17
+ online_rollout_batch_size: 1
18
+ online_steps_between_rollouts: 1
19
+ online_sampling_ratio: 0.5
20
+ online_env_seed: null
21
+ online_buffer_capacity: null
22
+ online_buffer_seed_size: 0
23
+ do_online_rollout_async: false
24
+ image_transforms:
25
+ enable: false
26
+ max_num_transforms: 3
27
+ random_order: false
28
+ brightness:
29
+ weight: 1
30
+ min_max:
31
+ - 0.8
32
+ - 1.2
33
+ contrast:
34
+ weight: 1
35
+ min_max:
36
+ - 0.8
37
+ - 1.2
38
+ saturation:
39
+ weight: 1
40
+ min_max:
41
+ - 0.5
42
+ - 1.5
43
+ hue:
44
+ weight: 1
45
+ min_max:
46
+ - -0.05
47
+ - 0.05
48
+ sharpness:
49
+ weight: 1
50
+ min_max:
51
+ - 0.8
52
+ - 1.2
53
+ lr: 1.0e-05
54
+ lr_backbone: 1.0e-05
55
+ weight_decay: 0.0001
56
+ grad_clip_norm: 10
57
+ delta_timestamps:
58
+ action:
59
+ - 0.0
60
+ - 0.03333333333333333
61
+ - 0.06666666666666667
62
+ - 0.1
63
+ - 0.13333333333333333
64
+ - 0.16666666666666666
65
+ - 0.2
66
+ - 0.23333333333333334
67
+ - 0.26666666666666666
68
+ - 0.3
69
+ - 0.3333333333333333
70
+ - 0.36666666666666664
71
+ - 0.4
72
+ - 0.43333333333333335
73
+ - 0.4666666666666667
74
+ - 0.5
75
+ - 0.5333333333333333
76
+ - 0.5666666666666667
77
+ - 0.6
78
+ - 0.6333333333333333
79
+ - 0.6666666666666666
80
+ - 0.7
81
+ - 0.7333333333333333
82
+ - 0.7666666666666667
83
+ - 0.8
84
+ - 0.8333333333333334
85
+ - 0.8666666666666667
86
+ - 0.9
87
+ - 0.9333333333333333
88
+ - 0.9666666666666667
89
+ - 1.0
90
+ - 1.0333333333333334
91
+ - 1.0666666666666667
92
+ - 1.1
93
+ - 1.1333333333333333
94
+ - 1.1666666666666667
95
+ - 1.2
96
+ - 1.2333333333333334
97
+ - 1.2666666666666666
98
+ - 1.3
99
+ - 1.3333333333333333
100
+ - 1.3666666666666667
101
+ - 1.4
102
+ - 1.4333333333333333
103
+ - 1.4666666666666666
104
+ - 1.5
105
+ - 1.5333333333333334
106
+ - 1.5666666666666667
107
+ - 1.6
108
+ - 1.6333333333333333
109
+ - 1.6666666666666667
110
+ - 1.7
111
+ - 1.7333333333333334
112
+ - 1.7666666666666666
113
+ - 1.8
114
+ - 1.8333333333333333
115
+ - 1.8666666666666667
116
+ - 1.9
117
+ - 1.9333333333333333
118
+ - 1.9666666666666666
119
+ - 2.0
120
+ - 2.033333333333333
121
+ - 2.066666666666667
122
+ - 2.1
123
+ - 2.1333333333333333
124
+ - 2.1666666666666665
125
+ - 2.2
126
+ - 2.2333333333333334
127
+ - 2.2666666666666666
128
+ - 2.3
129
+ - 2.3333333333333335
130
+ - 2.3666666666666667
131
+ - 2.4
132
+ - 2.433333333333333
133
+ - 2.466666666666667
134
+ - 2.5
135
+ - 2.533333333333333
136
+ - 2.566666666666667
137
+ - 2.6
138
+ - 2.6333333333333333
139
+ - 2.6666666666666665
140
+ - 2.7
141
+ - 2.7333333333333334
142
+ - 2.7666666666666666
143
+ - 2.8
144
+ - 2.8333333333333335
145
+ - 2.8666666666666667
146
+ - 2.9
147
+ - 2.933333333333333
148
+ - 2.966666666666667
149
+ - 3.0
150
+ - 3.033333333333333
151
+ - 3.066666666666667
152
+ - 3.1
153
+ - 3.1333333333333333
154
+ - 3.1666666666666665
155
+ - 3.2
156
+ - 3.2333333333333334
157
+ - 3.2666666666666666
158
+ - 3.3
159
+ eval:
160
+ n_episodes: 50
161
+ batch_size: 50
162
+ use_async_envs: false
163
+ wandb:
164
+ enable: true
165
+ disable_artifact: false
166
+ project: lerobot
167
+ notes: ''
168
+ fps: 30
169
+ env:
170
+ name: real_world
171
+ task: null
172
+ state_dim: 6
173
+ action_dim: 6
174
+ fps: ${fps}
175
+ override_dataset_stats:
176
+ observation.images.laptop:
177
+ mean:
178
+ - - - 0.485
179
+ - - - 0.456
180
+ - - - 0.406
181
+ std:
182
+ - - - 0.229
183
+ - - - 0.224
184
+ - - - 0.225
185
+ policy:
186
+ name: act
187
+ n_obs_steps: 1
188
+ chunk_size: 100
189
+ n_action_steps: 100
190
+ input_shapes:
191
+ observation.images.laptop:
192
+ - 3
193
+ - 480
194
+ - 640
195
+ observation.state:
196
+ - ${env.state_dim}
197
+ output_shapes:
198
+ action:
199
+ - ${env.action_dim}
200
+ input_normalization_modes:
201
+ observation.images.laptop: mean_std
202
+ observation.state: mean_std
203
+ output_normalization_modes:
204
+ action: mean_std
205
+ vision_backbone: resnet18
206
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
207
+ replace_final_stride_with_dilation: false
208
+ pre_norm: false
209
+ dim_model: 512
210
+ n_heads: 8
211
+ dim_feedforward: 3200
212
+ feedforward_activation: relu
213
+ n_encoder_layers: 4
214
+ n_decoder_layers: 1
215
+ use_vae: true
216
+ latent_dim: 32
217
+ n_vae_encoder_layers: 4
218
+ temporal_ensemble_momentum: null
219
+ dropout: 0.1
220
+ kl_weight: 10.0
checkpoints/080000/pretrained_model/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6345fbeec4602f7d25b0edf2a4867eeb928975cf60a179d3bdda8e5bc9dd7944
3
+ size 206700800
checkpoints/080000/training_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:f68f367194516e23a0b67efea0fad673d475a87519ee3934936bcda64973a24b
3
+ size 412921871
wandb/debug-internal.log ADDED
The diff for this file is too large to render. See raw diff
 
wandb/debug.log ADDED
@@ -0,0 +1,26 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_setup.py:_flush():77] Current SDK version is 0.17.8
2
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_setup.py:_flush():77] Configure stats pid to 11583
3
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_setup.py:_flush():77] Loading settings from /home/bhargav9/.config/wandb/settings
4
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_setup.py:_flush():77] Loading settings from /home/bhargav9/lerobot/wandb/settings
5
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_setup.py:_flush():77] Loading settings from environment variables: {'silent': 'true'}
6
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_setup.py:_flush():77] Applying setup settings: {'_disable_service': False}
7
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_setup.py:_flush():77] Inferring run settings from compute environment: {'program_relpath': 'lerobot/scripts/train.py', 'program_abspath': '/home/bhargav9/lerobot/lerobot/scripts/train.py', 'program': '/home/bhargav9/lerobot/lerobot/scripts/train.py'}
8
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_setup.py:_flush():77] Applying login settings: {}
9
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_init.py:_log_setup():524] Logging user logs to outputs/train/act_acm_move_square/wandb/run-20240920_200322-zhtbclvs/logs/debug.log
10
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_init.py:_log_setup():525] Logging internal logs to outputs/train/act_acm_move_square/wandb/run-20240920_200322-zhtbclvs/logs/debug-internal.log
11
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_init.py:init():607] calling init triggers
12
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_init.py:init():614] wandb.init called with sweep_config: {}
13
+ config: {'resume': False, 'device': 'cuda', 'use_amp': False, 'seed': 1000, 'dataset_repo_id': 'bchandaka/acm_move_square', 'video_backend': 'pyav', 'training': {'offline_steps': 80000, 'num_workers': 4, 'batch_size': 4, 'eval_freq': -1, 'log_freq': 100, 'save_checkpoint': True, 'save_freq': 10000, 'online_steps': 0, 'online_rollout_n_episodes': 1, 'online_rollout_batch_size': 1, 'online_steps_between_rollouts': 1, 'online_sampling_ratio': 0.5, 'online_env_seed': None, 'online_buffer_capacity': None, 'online_buffer_seed_size': 0, 'do_online_rollout_async': False, 'image_transforms': {'enable': False, 'max_num_transforms': 3, 'random_order': False, 'brightness': {'weight': 1, 'min_max': [0.8, 1.2]}, 'contrast': {'weight': 1, 'min_max': [0.8, 1.2]}, 'saturation': {'weight': 1, 'min_max': [0.5, 1.5]}, 'hue': {'weight': 1, 'min_max': [-0.05, 0.05]}, 'sharpness': {'weight': 1, 'min_max': [0.8, 1.2]}}, 'lr': 1e-05, 'lr_backbone': 1e-05, 'weight_decay': 0.0001, 'grad_clip_norm': 10, 'delta_timestamps': {'action': '[i / 30 for i in range(100)]'}}, 'eval': {'n_episodes': 50, 'batch_size': 50, 'use_async_envs': False}, 'wandb': {'enable': True, 'disable_artifact': False, 'project': 'lerobot', 'notes': ''}, 'fps': 30, 'env': {'name': 'real_world', 'task': None, 'state_dim': 6, 'action_dim': 6, 'fps': 30}, 'override_dataset_stats': {'observation.images.laptop': {'mean': [[[0.485]], [[0.456]], [[0.406]]], 'std': [[[0.229]], [[0.224]], [[0.225]]]}}, 'policy': {'name': 'act', 'n_obs_steps': 1, 'chunk_size': 100, 'n_action_steps': 100, 'input_shapes': {'observation.images.laptop': [3, 480, 640], 'observation.state': [6]}, 'output_shapes': {'action': [6]}, 'input_normalization_modes': {'observation.images.laptop': 'mean_std', 'observation.state': 'mean_std'}, 'output_normalization_modes': {'action': 'mean_std'}, 'vision_backbone': 'resnet18', 'pretrained_backbone_weights': 'ResNet18_Weights.IMAGENET1K_V1', 'replace_final_stride_with_dilation': False, 'pre_norm': False, 'dim_model': 512, 'n_heads': 8, 'dim_feedforward': 3200, 'feedforward_activation': 'relu', 'n_encoder_layers': 4, 'n_decoder_layers': 1, 'use_vae': True, 'latent_dim': 32, 'n_vae_encoder_layers': 4, 'temporal_ensemble_momentum': None, 'dropout': 0.1, 'kl_weight': 10.0}}
14
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_init.py:init():657] starting backend
15
+ 2024-09-20 20:03:22,386 INFO MainThread:11583 [wandb_init.py:init():661] setting up manager
16
+ 2024-09-20 20:03:22,387 INFO MainThread:11583 [backend.py:_multiprocessing_setup():105] multiprocessing start_methods=fork,spawn,forkserver, using: spawn
17
+ 2024-09-20 20:03:22,395 INFO MainThread:11583 [wandb_init.py:init():669] backend started and connected
18
+ 2024-09-20 20:03:22,398 INFO MainThread:11583 [wandb_init.py:init():767] updated telemetry
19
+ 2024-09-20 20:03:22,421 INFO MainThread:11583 [wandb_init.py:init():800] communicating run to backend with 90.0 second timeout
20
+ 2024-09-20 20:03:22,674 INFO MainThread:11583 [wandb_init.py:init():851] starting run threads in backend
21
+ 2024-09-20 20:03:26,989 INFO MainThread:11583 [wandb_run.py:_console_start():2463] atexit reg
22
+ 2024-09-20 20:03:26,990 INFO MainThread:11583 [wandb_run.py:_redirect():2309] redirect: wrap_raw
23
+ 2024-09-20 20:03:26,990 INFO MainThread:11583 [wandb_run.py:_redirect():2374] Wrapping output streams.
24
+ 2024-09-20 20:03:26,990 INFO MainThread:11583 [wandb_run.py:_redirect():2399] Redirects installed.
25
+ 2024-09-20 20:03:27,000 INFO MainThread:11583 [wandb_init.py:init():894] run started, returning control to user process
26
+ 2024-09-20 21:32:22,666 WARNING MsgRouterThr:11583 [router.py:message_loop():77] message_loop has been closed
wandb/run-20240920_183332-w3m04wq0/files/conda-environment.yaml ADDED
@@ -0,0 +1,232 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ name: lerobot
2
+ channels:
3
+ - defaults
4
+ - conda-forge
5
+ dependencies:
6
+ - _libgcc_mutex=0.1=conda_forge
7
+ - _openmp_mutex=4.5=2_gnu
8
+ - anyio=4.2.0=py310h06a4308_0
9
+ - argon2-cffi=21.3.0=pyhd3eb1b0_0
10
+ - argon2-cffi-bindings=21.2.0=py310h7f8727e_0
11
+ - asttokens=2.0.5=pyhd3eb1b0_0
12
+ - async-lru=2.0.4=py310h06a4308_0
13
+ - babel=2.11.0=py310h06a4308_0
14
+ - beautifulsoup4=4.12.3=py310h06a4308_0
15
+ - bleach=4.1.0=pyhd3eb1b0_0
16
+ - brotli-python=1.0.9=py310h6a678d5_8
17
+ - bzip2=1.0.8=h4bc722e_7
18
+ - ca-certificates=2024.7.2=h06a4308_0
19
+ - certifi=2024.7.4=py310h06a4308_0
20
+ - charset-normalizer=3.3.2=pyhd3eb1b0_0
21
+ - comm=0.2.1=py310h06a4308_0
22
+ - debugpy=1.6.7=py310h6a678d5_0
23
+ - decorator=5.1.1=pyhd3eb1b0_0
24
+ - defusedxml=0.7.1=pyhd3eb1b0_0
25
+ - entrypoints=0.4=py310h06a4308_0
26
+ - exceptiongroup=1.2.0=py310h06a4308_0
27
+ - executing=0.8.3=pyhd3eb1b0_0
28
+ - ipykernel=6.28.0=py310h06a4308_0
29
+ - ipython=8.25.0=py310h06a4308_0
30
+ - jedi=0.19.1=py310h06a4308_0
31
+ - jinja2=3.1.4=py310h06a4308_0
32
+ - json5=0.9.6=pyhd3eb1b0_0
33
+ - jsonschema=4.19.2=py310h06a4308_0
34
+ - jsonschema-specifications=2023.7.1=py310h06a4308_0
35
+ - jupyter=1.1.0=pyhd8ed1ab_0
36
+ - jupyter-lsp=2.2.0=py310h06a4308_0
37
+ - jupyter_client=8.6.0=py310h06a4308_0
38
+ - jupyter_console=6.6.3=py310h06a4308_0
39
+ - jupyter_core=5.7.2=py310h06a4308_0
40
+ - jupyter_events=0.10.0=py310h06a4308_0
41
+ - jupyter_server=2.14.2=pyhd8ed1ab_0
42
+ - jupyter_server_terminals=0.4.4=py310h06a4308_1
43
+ - jupyterlab_pygments=0.1.2=py_0
44
+ - ld_impl_linux-64=2.40=hf3520f5_7
45
+ - libffi=3.4.2=h7f98852_5
46
+ - libgcc=14.1.0=h77fa898_1
47
+ - libgcc-ng=14.1.0=h69a702a_1
48
+ - libgomp=14.1.0=h77fa898_1
49
+ - libnsl=2.0.1=hd590300_0
50
+ - libsodium=1.0.18=h7b6447c_0
51
+ - libsqlite=3.46.0=hde9e2c9_0
52
+ - libstdcxx-ng=11.2.0=h1234567_1
53
+ - libuuid=2.38.1=h0b41bf4_0
54
+ - libxcrypt=4.4.36=hd590300_1
55
+ - libzlib=1.3.1=h4ab18f5_1
56
+ - matplotlib-inline=0.1.6=py310h06a4308_0
57
+ - mistune=2.0.4=py310h06a4308_0
58
+ - nbclient=0.8.0=py310h06a4308_0
59
+ - nbconvert-core=7.16.4=pyhd8ed1ab_1
60
+ - nbformat=5.9.2=py310h06a4308_0
61
+ - ncurses=6.5=he02047a_1
62
+ - nest-asyncio=1.6.0=py310h06a4308_0
63
+ - notebook-shim=0.2.3=py310h06a4308_0
64
+ - openssl=3.3.1=hb9d3cd8_3
65
+ - overrides=7.4.0=py310h06a4308_0
66
+ - packaging=24.1=py310h06a4308_0
67
+ - pandocfilters=1.5.0=pyhd3eb1b0_0
68
+ - parso=0.8.3=pyhd3eb1b0_0
69
+ - pexpect=4.8.0=pyhd3eb1b0_3
70
+ - pip=24.2=pyhd8ed1ab_0
71
+ - prometheus_client=0.14.1=py310h06a4308_0
72
+ - prompt_toolkit=3.0.43=hd3eb1b0_0
73
+ - ptyprocess=0.7.0=pyhd3eb1b0_2
74
+ - pure_eval=0.2.2=pyhd3eb1b0_0
75
+ - pygments=2.15.1=py310h06a4308_1
76
+ - pysocks=1.7.1=py310h06a4308_0
77
+ - python=3.10.14=hd12c33a_0_cpython
78
+ - python-dateutil=2.9.0post0=py310h06a4308_2
79
+ - python-fastjsonschema=2.16.2=py310h06a4308_0
80
+ - python-json-logger=2.0.7=py310h06a4308_0
81
+ - pytz=2024.1=py310h06a4308_0
82
+ - pyzmq=25.1.2=py310h6a678d5_0
83
+ - readline=8.2=h8228510_1
84
+ - referencing=0.30.2=py310h06a4308_0
85
+ - requests=2.32.3=py310h06a4308_0
86
+ - rfc3339-validator=0.1.4=py310h06a4308_0
87
+ - rfc3986-validator=0.1.1=py310h06a4308_0
88
+ - rpds-py=0.10.6=py310hb02cf49_0
89
+ - send2trash=1.8.2=py310h06a4308_0
90
+ - setuptools=72.2.0=pyhd8ed1ab_0
91
+ - six=1.16.0=pyhd3eb1b0_1
92
+ - sniffio=1.3.0=py310h06a4308_0
93
+ - stack_data=0.2.0=pyhd3eb1b0_0
94
+ - terminado=0.17.1=py310h06a4308_0
95
+ - tinycss2=1.2.1=py310h06a4308_0
96
+ - tk=8.6.13=noxft_h4845f30_101
97
+ - tomli=2.0.1=py310h06a4308_0
98
+ - tornado=6.4.1=py310h5eee18b_0
99
+ - traitlets=5.14.3=py310h06a4308_0
100
+ - typing_extensions=4.11.0=py310h06a4308_0
101
+ - urllib3=2.2.2=py310h06a4308_0
102
+ - webencodings=0.5.1=py310h06a4308_1
103
+ - websocket-client=1.8.0=py310h06a4308_0
104
+ - wheel=0.44.0=pyhd8ed1ab_0
105
+ - xz=5.2.6=h166bdaf_0
106
+ - yaml=0.2.5=h7b6447c_0
107
+ - zeromq=4.3.5=h6a678d5_0
108
+ - pip:
109
+ - aiohappyeyeballs==2.4.0
110
+ - aiohttp==3.10.5
111
+ - aiosignal==1.3.1
112
+ - antlr4-python3-runtime==4.9.3
113
+ - anywidget==0.9.13
114
+ - arrow==1.3.0
115
+ - asciitree==0.3.3
116
+ - async-timeout==4.0.3
117
+ - attrs==24.2.0
118
+ - blinker==1.8.2
119
+ - cffi==1.17.0
120
+ - click==8.1.7
121
+ - cloudpickle==3.0.0
122
+ - cmake==3.30.2
123
+ - datasets==2.21.0
124
+ - deepdiff==8.0.1
125
+ - diffusers==0.30.1
126
+ - dill==0.3.8
127
+ - docker-pycreds==0.4.0
128
+ - einops==0.8.0
129
+ - farama-notifications==0.0.4
130
+ - fasteners==0.19
131
+ - filelock==3.15.4
132
+ - flask==3.0.3
133
+ - fqdn==1.5.1
134
+ - frozenlist==1.4.1
135
+ - fsspec==2024.6.1
136
+ - gdown==5.2.0
137
+ - gitdb==4.0.11
138
+ - gitpython==3.1.43
139
+ - gymnasium==0.29.1
140
+ - h11==0.14.0
141
+ - h5py==3.11.0
142
+ - hf-transfer==0.1.8
143
+ - httpcore==1.0.5
144
+ - httpx==0.27.2
145
+ - huggingface-hub==0.24.6
146
+ - hydra-core==1.3.2
147
+ - idna==3.8
148
+ - imageio==2.35.1
149
+ - imageio-ffmpeg==0.5.1
150
+ - importlib-metadata==8.4.0
151
+ - inquirerpy==0.3.4
152
+ - ipython-genutils==0.2.0
153
+ - ipywidgets==8.1.5
154
+ - isoduration==20.11.0
155
+ - itsdangerous==2.2.0
156
+ - jsonpointer==3.0.0
157
+ - jupyter-contrib-core==0.4.2
158
+ - jupyter-contrib-nbextensions==0.7.0
159
+ - jupyter-highlight-selected-word==0.2.0
160
+ - jupyter-nbextensions-configurator==0.6.4
161
+ - jupyter-ui-poll==1.0.0
162
+ - jupyterlab==4.2.5
163
+ - jupyterlab-server==2.27.3
164
+ - jupyterlab-widgets==3.0.13
165
+ - lerobot==0.1.0
166
+ - llvmlite==0.43.0
167
+ - lxml==5.3.0
168
+ - markupsafe==2.1.5
169
+ - mpmath==1.3.0
170
+ - multidict==6.0.5
171
+ - multiprocess==0.70.16
172
+ - networkx==3.3
173
+ - notebook==7.2.2
174
+ - numba==0.60.0
175
+ - numcodecs==0.13.0
176
+ - numpy==1.26.4
177
+ - nvidia-cublas-cu12==12.1.3.1
178
+ - nvidia-cuda-cupti-cu12==12.1.105
179
+ - nvidia-cuda-nvrtc-cu12==12.1.105
180
+ - nvidia-cuda-runtime-cu12==12.1.105
181
+ - nvidia-cudnn-cu12==9.1.0.70
182
+ - nvidia-cufft-cu12==11.0.2.54
183
+ - nvidia-curand-cu12==10.3.2.106
184
+ - nvidia-cusolver-cu12==11.4.5.107
185
+ - nvidia-cusparse-cu12==12.1.0.106
186
+ - nvidia-nccl-cu12==2.20.5
187
+ - nvidia-nvjitlink-cu12==12.6.20
188
+ - nvidia-nvtx-cu12==12.1.105
189
+ - omegaconf==2.3.0
190
+ - opencv-python==4.10.0.84
191
+ - orderly-set==5.2.2
192
+ - pandas==2.2.2
193
+ - pfzy==0.3.4
194
+ - pillow==10.4.0
195
+ - platformdirs==4.2.2
196
+ - prompt-toolkit==3.0.47
197
+ - protobuf==5.28.0
198
+ - psutil==6.0.0
199
+ - psygnal==0.11.1
200
+ - pyarrow==17.0.0
201
+ - pyav==12.3.0
202
+ - pycparser==2.22
203
+ - pymunk==6.8.1
204
+ - pyyaml==6.0.2
205
+ - regex==2024.7.24
206
+ - rerun-notebook==0.18.1
207
+ - rerun-sdk==0.18.1
208
+ - safetensors==0.4.4
209
+ - sentry-sdk==2.13.0
210
+ - setproctitle==1.3.3
211
+ - smmap==5.0.1
212
+ - soupsieve==2.6
213
+ - sympy==1.13.2
214
+ - termcolor==2.4.0
215
+ - torch==2.4.0
216
+ - torchvision==0.19.0
217
+ - tqdm==4.66.5
218
+ - triton==3.0.0
219
+ - types-python-dateutil==2.9.0.20240821
220
+ - typing-extensions==4.12.2
221
+ - tzdata==2024.1
222
+ - uri-template==1.3.0
223
+ - wandb==0.17.8
224
+ - wcwidth==0.2.13
225
+ - webcolors==24.8.0
226
+ - werkzeug==3.0.4
227
+ - widgetsnbextension==4.0.13
228
+ - xxhash==3.5.0
229
+ - yarl==1.9.4
230
+ - zarr==2.18.2
231
+ - zipp==3.20.1
232
+ prefix: /home/bhargav9/conda_envs/lerobot
wandb/run-20240920_183332-w3m04wq0/files/config.yaml ADDED
@@ -0,0 +1,182 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ wandb_version: 1
2
+
3
+ resume:
4
+ desc: null
5
+ value: false
6
+ device:
7
+ desc: null
8
+ value: cuda
9
+ use_amp:
10
+ desc: null
11
+ value: false
12
+ seed:
13
+ desc: null
14
+ value: 1000
15
+ dataset_repo_id:
16
+ desc: null
17
+ value: bchandaka/acm_move_square
18
+ video_backend:
19
+ desc: null
20
+ value: pyav
21
+ training:
22
+ desc: null
23
+ value:
24
+ offline_steps: 80000
25
+ num_workers: 4
26
+ batch_size: 4
27
+ eval_freq: -1
28
+ log_freq: 100
29
+ save_checkpoint: true
30
+ save_freq: 10000
31
+ online_steps: 0
32
+ online_rollout_n_episodes: 1
33
+ online_rollout_batch_size: 1
34
+ online_steps_between_rollouts: 1
35
+ online_sampling_ratio: 0.5
36
+ online_env_seed: null
37
+ online_buffer_capacity: null
38
+ online_buffer_seed_size: 0
39
+ do_online_rollout_async: false
40
+ image_transforms:
41
+ enable: false
42
+ max_num_transforms: 3
43
+ random_order: false
44
+ brightness:
45
+ weight: 1
46
+ min_max:
47
+ - 0.8
48
+ - 1.2
49
+ contrast:
50
+ weight: 1
51
+ min_max:
52
+ - 0.8
53
+ - 1.2
54
+ saturation:
55
+ weight: 1
56
+ min_max:
57
+ - 0.5
58
+ - 1.5
59
+ hue:
60
+ weight: 1
61
+ min_max:
62
+ - -0.05
63
+ - 0.05
64
+ sharpness:
65
+ weight: 1
66
+ min_max:
67
+ - 0.8
68
+ - 1.2
69
+ lr: 1.0e-05
70
+ lr_backbone: 1.0e-05
71
+ weight_decay: 0.0001
72
+ grad_clip_norm: 10
73
+ delta_timestamps:
74
+ action: '[i / 30 for i in range(100)]'
75
+ eval:
76
+ desc: null
77
+ value:
78
+ n_episodes: 50
79
+ batch_size: 50
80
+ use_async_envs: true
81
+ wandb:
82
+ desc: null
83
+ value:
84
+ enable: true
85
+ disable_artifact: false
86
+ project: lerobot
87
+ notes: ''
88
+ fps:
89
+ desc: null
90
+ value: 30
91
+ env:
92
+ desc: null
93
+ value:
94
+ name: real_world
95
+ task: null
96
+ state_dim: 6
97
+ action_dim: 6
98
+ fps: 30
99
+ override_dataset_stats:
100
+ desc: null
101
+ value:
102
+ observation.images.laptop:
103
+ mean:
104
+ - - - 0.485
105
+ - - - 0.456
106
+ - - - 0.406
107
+ std:
108
+ - - - 0.229
109
+ - - - 0.224
110
+ - - - 0.225
111
+ policy:
112
+ desc: null
113
+ value:
114
+ name: act
115
+ n_obs_steps: 1
116
+ chunk_size: 100
117
+ n_action_steps: 100
118
+ input_shapes:
119
+ observation.images.laptop:
120
+ - 3
121
+ - 480
122
+ - 640
123
+ observation.state:
124
+ - 6
125
+ output_shapes:
126
+ action:
127
+ - 6
128
+ input_normalization_modes:
129
+ observation.images.laptop: mean_std
130
+ observation.state: mean_std
131
+ output_normalization_modes:
132
+ action: mean_std
133
+ vision_backbone: resnet18
134
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
135
+ replace_final_stride_with_dilation: false
136
+ pre_norm: false
137
+ dim_model: 512
138
+ n_heads: 8
139
+ dim_feedforward: 3200
140
+ feedforward_activation: relu
141
+ n_encoder_layers: 4
142
+ n_decoder_layers: 1
143
+ use_vae: true
144
+ latent_dim: 32
145
+ n_vae_encoder_layers: 4
146
+ temporal_ensemble_momentum: null
147
+ dropout: 0.1
148
+ kl_weight: 10.0
149
+ _wandb:
150
+ desc: null
151
+ value:
152
+ python_version: 3.10.14
153
+ cli_version: 0.17.8
154
+ framework: torch
155
+ is_jupyter_run: false
156
+ is_kaggle_kernel: false
157
+ start_time: 1726857212
158
+ t:
159
+ 1:
160
+ - 1
161
+ - 41
162
+ - 49
163
+ - 50
164
+ - 51
165
+ - 55
166
+ 2:
167
+ - 1
168
+ - 41
169
+ - 49
170
+ - 50
171
+ - 51
172
+ - 55
173
+ 3:
174
+ - 13
175
+ - 15
176
+ - 16
177
+ - 23
178
+ 4: 3.10.14
179
+ 5: 0.17.8
180
+ 8:
181
+ - 5
182
+ 13: linux-x86_64
wandb/run-20240920_183332-w3m04wq0/files/output.log ADDED
@@ -0,0 +1,21 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+
2
+ Logs will be synced with wandb.
3
+ INFO 2024-09-20 18:33:41 n/logger.py:132 Track this run --> https://wandb.ai/bhargav9/lerobot/runs/w3m04wq0
4
+ INFO 2024-09-20 18:33:42 ts/train.py:312 make_dataset
5
+ WARNING 2024-09-20 18:33:42 s/factory.py:68 There might be a mismatch between your training dataset (dataset_repo_id='bchandaka/acm_move_square') and your environment (cfg.env.name='real_world').
6
+ Error executing job with overrides: ['dataset_repo_id=bchandaka/acm_move_square', 'policy=act_koch_real', 'env=koch_real', 'device=cuda', 'wandb.enable=true']
7
+ Traceback (most recent call last):
8
+ File "/home/bhargav9/lerobot/lerobot/scripts/train.py", line 652, in train_cli
9
+ train(
10
+ File "/home/bhargav9/lerobot/lerobot/scripts/train.py", line 313, in train
11
+ offline_dataset = make_dataset(cfg)
12
+ File "/home/bhargav9/lerobot/lerobot/common/datasets/factory.py", line 94, in make_dataset
13
+ dataset = LeRobotDataset(
14
+ File "/home/bhargav9/lerobot/lerobot/common/datasets/lerobot_dataset.py", line 62, in __init__
15
+ self.hf_dataset = load_hf_dataset(repo_id, CODEBASE_VERSION, root, split)
16
+ File "/home/bhargav9/lerobot/lerobot/common/datasets/utils.py", line 122, in load_hf_dataset
17
+ hf_dataset = load_from_disk(str(Path(root) / repo_id / "train"))
18
+ File "/home/bhargav9/conda_envs/lerobot/lib/python3.10/site-packages/datasets/load.py", line 2711, in load_from_disk
19
+ raise FileNotFoundError(f"Directory {dataset_path} not found")
20
+ FileNotFoundError: Directory data/bchandaka/acm_move_square/train not found
21
+ Set the environment variable HYDRA_FULL_ERROR=1 for a complete stack trace.