zijian2022 commited on
Commit
c7570ba
·
verified ·
1 Parent(s): b09acbf

Delete checkpoints

Browse files
Files changed (40) hide show
  1. checkpoints/010000/pretrained_model/README.md +0 -12
  2. checkpoints/010000/pretrained_model/config.json +0 -49
  3. checkpoints/010000/pretrained_model/config.yaml +0 -234
  4. checkpoints/010000/pretrained_model/model.safetensors +0 -3
  5. checkpoints/010000/training_state.pth +0 -3
  6. checkpoints/020000/pretrained_model/README.md +0 -12
  7. checkpoints/020000/pretrained_model/config.json +0 -49
  8. checkpoints/020000/pretrained_model/config.yaml +0 -234
  9. checkpoints/020000/pretrained_model/model.safetensors +0 -3
  10. checkpoints/020000/training_state.pth +0 -3
  11. checkpoints/030000/pretrained_model/README.md +0 -12
  12. checkpoints/030000/pretrained_model/config.json +0 -49
  13. checkpoints/030000/pretrained_model/config.yaml +0 -234
  14. checkpoints/030000/pretrained_model/model.safetensors +0 -3
  15. checkpoints/030000/training_state.pth +0 -3
  16. checkpoints/040000/pretrained_model/README.md +0 -12
  17. checkpoints/040000/pretrained_model/config.json +0 -49
  18. checkpoints/040000/pretrained_model/config.yaml +0 -234
  19. checkpoints/040000/pretrained_model/model.safetensors +0 -3
  20. checkpoints/040000/training_state.pth +0 -3
  21. checkpoints/050000/pretrained_model/README.md +0 -12
  22. checkpoints/050000/pretrained_model/config.json +0 -49
  23. checkpoints/050000/pretrained_model/config.yaml +0 -234
  24. checkpoints/050000/pretrained_model/model.safetensors +0 -3
  25. checkpoints/050000/training_state.pth +0 -3
  26. checkpoints/060000/pretrained_model/README.md +0 -12
  27. checkpoints/060000/pretrained_model/config.json +0 -49
  28. checkpoints/060000/pretrained_model/config.yaml +0 -234
  29. checkpoints/060000/pretrained_model/model.safetensors +0 -3
  30. checkpoints/060000/training_state.pth +0 -3
  31. checkpoints/070000/pretrained_model/README.md +0 -12
  32. checkpoints/070000/pretrained_model/config.json +0 -49
  33. checkpoints/070000/pretrained_model/config.yaml +0 -234
  34. checkpoints/070000/pretrained_model/model.safetensors +0 -3
  35. checkpoints/070000/training_state.pth +0 -3
  36. checkpoints/080000/pretrained_model/README.md +0 -12
  37. checkpoints/080000/pretrained_model/config.json +0 -49
  38. checkpoints/080000/pretrained_model/config.yaml +0 -234
  39. checkpoints/080000/pretrained_model/model.safetensors +0 -3
  40. checkpoints/080000/training_state.pth +0 -3
checkpoints/010000/pretrained_model/README.md DELETED
@@ -1,12 +0,0 @@
1
- ---
2
- library_name: lerobot
3
- tags:
4
- - act
5
- - model_hub_mixin
6
- - pytorch_model_hub_mixin
7
- - robotics
8
- ---
9
-
10
- This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
- - Library: https://github.com/huggingface/lerobot
12
- - Docs: [More Information Needed]
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/010000/pretrained_model/config.json DELETED
@@ -1,49 +0,0 @@
1
- {
2
- "chunk_size": 100,
3
- "dim_feedforward": 3200,
4
- "dim_model": 512,
5
- "dropout": 0.1,
6
- "feedforward_activation": "relu",
7
- "input_normalization_modes": {
8
- "observation.images.laptop": "mean_std",
9
- "observation.images.phone": "mean_std",
10
- "observation.state": "mean_std"
11
- },
12
- "input_shapes": {
13
- "observation.images.laptop": [
14
- 3,
15
- 480,
16
- 640
17
- ],
18
- "observation.images.phone": [
19
- 3,
20
- 480,
21
- 640
22
- ],
23
- "observation.state": [
24
- 6
25
- ]
26
- },
27
- "kl_weight": 10.0,
28
- "latent_dim": 32,
29
- "n_action_steps": 100,
30
- "n_decoder_layers": 1,
31
- "n_encoder_layers": 4,
32
- "n_heads": 8,
33
- "n_obs_steps": 1,
34
- "n_vae_encoder_layers": 4,
35
- "output_normalization_modes": {
36
- "action": "mean_std"
37
- },
38
- "output_shapes": {
39
- "action": [
40
- 6
41
- ]
42
- },
43
- "pre_norm": false,
44
- "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
45
- "replace_final_stride_with_dilation": false,
46
- "temporal_ensemble_coeff": null,
47
- "use_vae": true,
48
- "vision_backbone": "resnet18"
49
- }
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/010000/pretrained_model/config.yaml DELETED
@@ -1,234 +0,0 @@
1
- resume: false
2
- device: cuda
3
- use_amp: false
4
- seed: 1000
5
- dataset_repo_id: zijian2022/llmtest107
6
- video_backend: pyav
7
- training:
8
- offline_steps: 80000
9
- num_workers: 4
10
- batch_size: 8
11
- eval_freq: -1
12
- log_freq: 100
13
- save_checkpoint: true
14
- save_freq: 10000
15
- online_steps: 0
16
- online_rollout_n_episodes: 1
17
- online_rollout_batch_size: 1
18
- online_steps_between_rollouts: 1
19
- online_sampling_ratio: 0.5
20
- online_env_seed: null
21
- online_buffer_capacity: null
22
- online_buffer_seed_size: 0
23
- do_online_rollout_async: false
24
- image_transforms:
25
- enable: false
26
- max_num_transforms: 3
27
- random_order: false
28
- brightness:
29
- weight: 1
30
- min_max:
31
- - 0.8
32
- - 1.2
33
- contrast:
34
- weight: 1
35
- min_max:
36
- - 0.8
37
- - 1.2
38
- saturation:
39
- weight: 1
40
- min_max:
41
- - 0.5
42
- - 1.5
43
- hue:
44
- weight: 1
45
- min_max:
46
- - -0.05
47
- - 0.05
48
- sharpness:
49
- weight: 1
50
- min_max:
51
- - 0.8
52
- - 1.2
53
- lr: 1.0e-05
54
- lr_backbone: 1.0e-05
55
- weight_decay: 0.0001
56
- grad_clip_norm: 10
57
- delta_timestamps:
58
- action:
59
- - 0.0
60
- - 0.03333333333333333
61
- - 0.06666666666666667
62
- - 0.1
63
- - 0.13333333333333333
64
- - 0.16666666666666666
65
- - 0.2
66
- - 0.23333333333333334
67
- - 0.26666666666666666
68
- - 0.3
69
- - 0.3333333333333333
70
- - 0.36666666666666664
71
- - 0.4
72
- - 0.43333333333333335
73
- - 0.4666666666666667
74
- - 0.5
75
- - 0.5333333333333333
76
- - 0.5666666666666667
77
- - 0.6
78
- - 0.6333333333333333
79
- - 0.6666666666666666
80
- - 0.7
81
- - 0.7333333333333333
82
- - 0.7666666666666667
83
- - 0.8
84
- - 0.8333333333333334
85
- - 0.8666666666666667
86
- - 0.9
87
- - 0.9333333333333333
88
- - 0.9666666666666667
89
- - 1.0
90
- - 1.0333333333333334
91
- - 1.0666666666666667
92
- - 1.1
93
- - 1.1333333333333333
94
- - 1.1666666666666667
95
- - 1.2
96
- - 1.2333333333333334
97
- - 1.2666666666666666
98
- - 1.3
99
- - 1.3333333333333333
100
- - 1.3666666666666667
101
- - 1.4
102
- - 1.4333333333333333
103
- - 1.4666666666666666
104
- - 1.5
105
- - 1.5333333333333334
106
- - 1.5666666666666667
107
- - 1.6
108
- - 1.6333333333333333
109
- - 1.6666666666666667
110
- - 1.7
111
- - 1.7333333333333334
112
- - 1.7666666666666666
113
- - 1.8
114
- - 1.8333333333333333
115
- - 1.8666666666666667
116
- - 1.9
117
- - 1.9333333333333333
118
- - 1.9666666666666666
119
- - 2.0
120
- - 2.033333333333333
121
- - 2.066666666666667
122
- - 2.1
123
- - 2.1333333333333333
124
- - 2.1666666666666665
125
- - 2.2
126
- - 2.2333333333333334
127
- - 2.2666666666666666
128
- - 2.3
129
- - 2.3333333333333335
130
- - 2.3666666666666667
131
- - 2.4
132
- - 2.433333333333333
133
- - 2.466666666666667
134
- - 2.5
135
- - 2.533333333333333
136
- - 2.566666666666667
137
- - 2.6
138
- - 2.6333333333333333
139
- - 2.6666666666666665
140
- - 2.7
141
- - 2.7333333333333334
142
- - 2.7666666666666666
143
- - 2.8
144
- - 2.8333333333333335
145
- - 2.8666666666666667
146
- - 2.9
147
- - 2.933333333333333
148
- - 2.966666666666667
149
- - 3.0
150
- - 3.033333333333333
151
- - 3.066666666666667
152
- - 3.1
153
- - 3.1333333333333333
154
- - 3.1666666666666665
155
- - 3.2
156
- - 3.2333333333333334
157
- - 3.2666666666666666
158
- - 3.3
159
- eval:
160
- n_episodes: 50
161
- batch_size: 50
162
- use_async_envs: false
163
- wandb:
164
- enable: true
165
- disable_artifact: false
166
- project: lerobot
167
- notes: ''
168
- fps: 30
169
- env:
170
- name: real_world
171
- task: null
172
- state_dim: 6
173
- action_dim: 6
174
- fps: ${fps}
175
- override_dataset_stats:
176
- observation.images.laptop:
177
- mean:
178
- - - - 0.485
179
- - - - 0.456
180
- - - - 0.406
181
- std:
182
- - - - 0.229
183
- - - - 0.224
184
- - - - 0.225
185
- observation.images.phone:
186
- mean:
187
- - - - 0.485
188
- - - - 0.456
189
- - - - 0.406
190
- std:
191
- - - - 0.229
192
- - - - 0.224
193
- - - - 0.225
194
- policy:
195
- name: act
196
- n_obs_steps: 1
197
- chunk_size: 100
198
- n_action_steps: 100
199
- input_shapes:
200
- observation.images.laptop:
201
- - 3
202
- - 480
203
- - 640
204
- observation.images.phone:
205
- - 3
206
- - 480
207
- - 640
208
- observation.state:
209
- - ${env.state_dim}
210
- output_shapes:
211
- action:
212
- - ${env.action_dim}
213
- input_normalization_modes:
214
- observation.images.laptop: mean_std
215
- observation.images.phone: mean_std
216
- observation.state: mean_std
217
- output_normalization_modes:
218
- action: mean_std
219
- vision_backbone: resnet18
220
- pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
221
- replace_final_stride_with_dilation: false
222
- pre_norm: false
223
- dim_model: 512
224
- n_heads: 8
225
- dim_feedforward: 3200
226
- feedforward_activation: relu
227
- n_encoder_layers: 4
228
- n_decoder_layers: 1
229
- use_vae: true
230
- latent_dim: 32
231
- n_vae_encoder_layers: 4
232
- temporal_ensemble_coeff: null
233
- dropout: 0.1
234
- kl_weight: 10.0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/010000/pretrained_model/model.safetensors DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:885ef2b426b93340f35e32edb85e6167449bc63a32f51ef59e2cb1852a46da27
3
- size 206701072
 
 
 
 
checkpoints/010000/training_state.pth DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:853bb38780f0d853659c083f3d45f0511f372bc6246c7c4fced0f5f477438ec5
3
- size 412921871
 
 
 
 
checkpoints/020000/pretrained_model/README.md DELETED
@@ -1,12 +0,0 @@
1
- ---
2
- library_name: lerobot
3
- tags:
4
- - act
5
- - model_hub_mixin
6
- - pytorch_model_hub_mixin
7
- - robotics
8
- ---
9
-
10
- This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
- - Library: https://github.com/huggingface/lerobot
12
- - Docs: [More Information Needed]
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/020000/pretrained_model/config.json DELETED
@@ -1,49 +0,0 @@
1
- {
2
- "chunk_size": 100,
3
- "dim_feedforward": 3200,
4
- "dim_model": 512,
5
- "dropout": 0.1,
6
- "feedforward_activation": "relu",
7
- "input_normalization_modes": {
8
- "observation.images.laptop": "mean_std",
9
- "observation.images.phone": "mean_std",
10
- "observation.state": "mean_std"
11
- },
12
- "input_shapes": {
13
- "observation.images.laptop": [
14
- 3,
15
- 480,
16
- 640
17
- ],
18
- "observation.images.phone": [
19
- 3,
20
- 480,
21
- 640
22
- ],
23
- "observation.state": [
24
- 6
25
- ]
26
- },
27
- "kl_weight": 10.0,
28
- "latent_dim": 32,
29
- "n_action_steps": 100,
30
- "n_decoder_layers": 1,
31
- "n_encoder_layers": 4,
32
- "n_heads": 8,
33
- "n_obs_steps": 1,
34
- "n_vae_encoder_layers": 4,
35
- "output_normalization_modes": {
36
- "action": "mean_std"
37
- },
38
- "output_shapes": {
39
- "action": [
40
- 6
41
- ]
42
- },
43
- "pre_norm": false,
44
- "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
45
- "replace_final_stride_with_dilation": false,
46
- "temporal_ensemble_coeff": null,
47
- "use_vae": true,
48
- "vision_backbone": "resnet18"
49
- }
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/020000/pretrained_model/config.yaml DELETED
@@ -1,234 +0,0 @@
1
- resume: false
2
- device: cuda
3
- use_amp: false
4
- seed: 1000
5
- dataset_repo_id: zijian2022/llmtest107
6
- video_backend: pyav
7
- training:
8
- offline_steps: 80000
9
- num_workers: 4
10
- batch_size: 8
11
- eval_freq: -1
12
- log_freq: 100
13
- save_checkpoint: true
14
- save_freq: 10000
15
- online_steps: 0
16
- online_rollout_n_episodes: 1
17
- online_rollout_batch_size: 1
18
- online_steps_between_rollouts: 1
19
- online_sampling_ratio: 0.5
20
- online_env_seed: null
21
- online_buffer_capacity: null
22
- online_buffer_seed_size: 0
23
- do_online_rollout_async: false
24
- image_transforms:
25
- enable: false
26
- max_num_transforms: 3
27
- random_order: false
28
- brightness:
29
- weight: 1
30
- min_max:
31
- - 0.8
32
- - 1.2
33
- contrast:
34
- weight: 1
35
- min_max:
36
- - 0.8
37
- - 1.2
38
- saturation:
39
- weight: 1
40
- min_max:
41
- - 0.5
42
- - 1.5
43
- hue:
44
- weight: 1
45
- min_max:
46
- - -0.05
47
- - 0.05
48
- sharpness:
49
- weight: 1
50
- min_max:
51
- - 0.8
52
- - 1.2
53
- lr: 1.0e-05
54
- lr_backbone: 1.0e-05
55
- weight_decay: 0.0001
56
- grad_clip_norm: 10
57
- delta_timestamps:
58
- action:
59
- - 0.0
60
- - 0.03333333333333333
61
- - 0.06666666666666667
62
- - 0.1
63
- - 0.13333333333333333
64
- - 0.16666666666666666
65
- - 0.2
66
- - 0.23333333333333334
67
- - 0.26666666666666666
68
- - 0.3
69
- - 0.3333333333333333
70
- - 0.36666666666666664
71
- - 0.4
72
- - 0.43333333333333335
73
- - 0.4666666666666667
74
- - 0.5
75
- - 0.5333333333333333
76
- - 0.5666666666666667
77
- - 0.6
78
- - 0.6333333333333333
79
- - 0.6666666666666666
80
- - 0.7
81
- - 0.7333333333333333
82
- - 0.7666666666666667
83
- - 0.8
84
- - 0.8333333333333334
85
- - 0.8666666666666667
86
- - 0.9
87
- - 0.9333333333333333
88
- - 0.9666666666666667
89
- - 1.0
90
- - 1.0333333333333334
91
- - 1.0666666666666667
92
- - 1.1
93
- - 1.1333333333333333
94
- - 1.1666666666666667
95
- - 1.2
96
- - 1.2333333333333334
97
- - 1.2666666666666666
98
- - 1.3
99
- - 1.3333333333333333
100
- - 1.3666666666666667
101
- - 1.4
102
- - 1.4333333333333333
103
- - 1.4666666666666666
104
- - 1.5
105
- - 1.5333333333333334
106
- - 1.5666666666666667
107
- - 1.6
108
- - 1.6333333333333333
109
- - 1.6666666666666667
110
- - 1.7
111
- - 1.7333333333333334
112
- - 1.7666666666666666
113
- - 1.8
114
- - 1.8333333333333333
115
- - 1.8666666666666667
116
- - 1.9
117
- - 1.9333333333333333
118
- - 1.9666666666666666
119
- - 2.0
120
- - 2.033333333333333
121
- - 2.066666666666667
122
- - 2.1
123
- - 2.1333333333333333
124
- - 2.1666666666666665
125
- - 2.2
126
- - 2.2333333333333334
127
- - 2.2666666666666666
128
- - 2.3
129
- - 2.3333333333333335
130
- - 2.3666666666666667
131
- - 2.4
132
- - 2.433333333333333
133
- - 2.466666666666667
134
- - 2.5
135
- - 2.533333333333333
136
- - 2.566666666666667
137
- - 2.6
138
- - 2.6333333333333333
139
- - 2.6666666666666665
140
- - 2.7
141
- - 2.7333333333333334
142
- - 2.7666666666666666
143
- - 2.8
144
- - 2.8333333333333335
145
- - 2.8666666666666667
146
- - 2.9
147
- - 2.933333333333333
148
- - 2.966666666666667
149
- - 3.0
150
- - 3.033333333333333
151
- - 3.066666666666667
152
- - 3.1
153
- - 3.1333333333333333
154
- - 3.1666666666666665
155
- - 3.2
156
- - 3.2333333333333334
157
- - 3.2666666666666666
158
- - 3.3
159
- eval:
160
- n_episodes: 50
161
- batch_size: 50
162
- use_async_envs: false
163
- wandb:
164
- enable: true
165
- disable_artifact: false
166
- project: lerobot
167
- notes: ''
168
- fps: 30
169
- env:
170
- name: real_world
171
- task: null
172
- state_dim: 6
173
- action_dim: 6
174
- fps: ${fps}
175
- override_dataset_stats:
176
- observation.images.laptop:
177
- mean:
178
- - - - 0.485
179
- - - - 0.456
180
- - - - 0.406
181
- std:
182
- - - - 0.229
183
- - - - 0.224
184
- - - - 0.225
185
- observation.images.phone:
186
- mean:
187
- - - - 0.485
188
- - - - 0.456
189
- - - - 0.406
190
- std:
191
- - - - 0.229
192
- - - - 0.224
193
- - - - 0.225
194
- policy:
195
- name: act
196
- n_obs_steps: 1
197
- chunk_size: 100
198
- n_action_steps: 100
199
- input_shapes:
200
- observation.images.laptop:
201
- - 3
202
- - 480
203
- - 640
204
- observation.images.phone:
205
- - 3
206
- - 480
207
- - 640
208
- observation.state:
209
- - ${env.state_dim}
210
- output_shapes:
211
- action:
212
- - ${env.action_dim}
213
- input_normalization_modes:
214
- observation.images.laptop: mean_std
215
- observation.images.phone: mean_std
216
- observation.state: mean_std
217
- output_normalization_modes:
218
- action: mean_std
219
- vision_backbone: resnet18
220
- pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
221
- replace_final_stride_with_dilation: false
222
- pre_norm: false
223
- dim_model: 512
224
- n_heads: 8
225
- dim_feedforward: 3200
226
- feedforward_activation: relu
227
- n_encoder_layers: 4
228
- n_decoder_layers: 1
229
- use_vae: true
230
- latent_dim: 32
231
- n_vae_encoder_layers: 4
232
- temporal_ensemble_coeff: null
233
- dropout: 0.1
234
- kl_weight: 10.0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/020000/pretrained_model/model.safetensors DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:b948b9bd339525c6fcebac5c69f53f2e0111f264ae256ae157d03571834b6aef
3
- size 206701072
 
 
 
 
checkpoints/020000/training_state.pth DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:2fc33f0117fb6c8ea8907e6dfea4600fe4a172e6b1ad26010397a59f291954a4
3
- size 412921871
 
 
 
 
checkpoints/030000/pretrained_model/README.md DELETED
@@ -1,12 +0,0 @@
1
- ---
2
- library_name: lerobot
3
- tags:
4
- - act
5
- - model_hub_mixin
6
- - pytorch_model_hub_mixin
7
- - robotics
8
- ---
9
-
10
- This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
- - Library: https://github.com/huggingface/lerobot
12
- - Docs: [More Information Needed]
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/030000/pretrained_model/config.json DELETED
@@ -1,49 +0,0 @@
1
- {
2
- "chunk_size": 100,
3
- "dim_feedforward": 3200,
4
- "dim_model": 512,
5
- "dropout": 0.1,
6
- "feedforward_activation": "relu",
7
- "input_normalization_modes": {
8
- "observation.images.laptop": "mean_std",
9
- "observation.images.phone": "mean_std",
10
- "observation.state": "mean_std"
11
- },
12
- "input_shapes": {
13
- "observation.images.laptop": [
14
- 3,
15
- 480,
16
- 640
17
- ],
18
- "observation.images.phone": [
19
- 3,
20
- 480,
21
- 640
22
- ],
23
- "observation.state": [
24
- 6
25
- ]
26
- },
27
- "kl_weight": 10.0,
28
- "latent_dim": 32,
29
- "n_action_steps": 100,
30
- "n_decoder_layers": 1,
31
- "n_encoder_layers": 4,
32
- "n_heads": 8,
33
- "n_obs_steps": 1,
34
- "n_vae_encoder_layers": 4,
35
- "output_normalization_modes": {
36
- "action": "mean_std"
37
- },
38
- "output_shapes": {
39
- "action": [
40
- 6
41
- ]
42
- },
43
- "pre_norm": false,
44
- "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
45
- "replace_final_stride_with_dilation": false,
46
- "temporal_ensemble_coeff": null,
47
- "use_vae": true,
48
- "vision_backbone": "resnet18"
49
- }
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/030000/pretrained_model/config.yaml DELETED
@@ -1,234 +0,0 @@
1
- resume: false
2
- device: cuda
3
- use_amp: false
4
- seed: 1000
5
- dataset_repo_id: zijian2022/llmtest107
6
- video_backend: pyav
7
- training:
8
- offline_steps: 80000
9
- num_workers: 4
10
- batch_size: 8
11
- eval_freq: -1
12
- log_freq: 100
13
- save_checkpoint: true
14
- save_freq: 10000
15
- online_steps: 0
16
- online_rollout_n_episodes: 1
17
- online_rollout_batch_size: 1
18
- online_steps_between_rollouts: 1
19
- online_sampling_ratio: 0.5
20
- online_env_seed: null
21
- online_buffer_capacity: null
22
- online_buffer_seed_size: 0
23
- do_online_rollout_async: false
24
- image_transforms:
25
- enable: false
26
- max_num_transforms: 3
27
- random_order: false
28
- brightness:
29
- weight: 1
30
- min_max:
31
- - 0.8
32
- - 1.2
33
- contrast:
34
- weight: 1
35
- min_max:
36
- - 0.8
37
- - 1.2
38
- saturation:
39
- weight: 1
40
- min_max:
41
- - 0.5
42
- - 1.5
43
- hue:
44
- weight: 1
45
- min_max:
46
- - -0.05
47
- - 0.05
48
- sharpness:
49
- weight: 1
50
- min_max:
51
- - 0.8
52
- - 1.2
53
- lr: 1.0e-05
54
- lr_backbone: 1.0e-05
55
- weight_decay: 0.0001
56
- grad_clip_norm: 10
57
- delta_timestamps:
58
- action:
59
- - 0.0
60
- - 0.03333333333333333
61
- - 0.06666666666666667
62
- - 0.1
63
- - 0.13333333333333333
64
- - 0.16666666666666666
65
- - 0.2
66
- - 0.23333333333333334
67
- - 0.26666666666666666
68
- - 0.3
69
- - 0.3333333333333333
70
- - 0.36666666666666664
71
- - 0.4
72
- - 0.43333333333333335
73
- - 0.4666666666666667
74
- - 0.5
75
- - 0.5333333333333333
76
- - 0.5666666666666667
77
- - 0.6
78
- - 0.6333333333333333
79
- - 0.6666666666666666
80
- - 0.7
81
- - 0.7333333333333333
82
- - 0.7666666666666667
83
- - 0.8
84
- - 0.8333333333333334
85
- - 0.8666666666666667
86
- - 0.9
87
- - 0.9333333333333333
88
- - 0.9666666666666667
89
- - 1.0
90
- - 1.0333333333333334
91
- - 1.0666666666666667
92
- - 1.1
93
- - 1.1333333333333333
94
- - 1.1666666666666667
95
- - 1.2
96
- - 1.2333333333333334
97
- - 1.2666666666666666
98
- - 1.3
99
- - 1.3333333333333333
100
- - 1.3666666666666667
101
- - 1.4
102
- - 1.4333333333333333
103
- - 1.4666666666666666
104
- - 1.5
105
- - 1.5333333333333334
106
- - 1.5666666666666667
107
- - 1.6
108
- - 1.6333333333333333
109
- - 1.6666666666666667
110
- - 1.7
111
- - 1.7333333333333334
112
- - 1.7666666666666666
113
- - 1.8
114
- - 1.8333333333333333
115
- - 1.8666666666666667
116
- - 1.9
117
- - 1.9333333333333333
118
- - 1.9666666666666666
119
- - 2.0
120
- - 2.033333333333333
121
- - 2.066666666666667
122
- - 2.1
123
- - 2.1333333333333333
124
- - 2.1666666666666665
125
- - 2.2
126
- - 2.2333333333333334
127
- - 2.2666666666666666
128
- - 2.3
129
- - 2.3333333333333335
130
- - 2.3666666666666667
131
- - 2.4
132
- - 2.433333333333333
133
- - 2.466666666666667
134
- - 2.5
135
- - 2.533333333333333
136
- - 2.566666666666667
137
- - 2.6
138
- - 2.6333333333333333
139
- - 2.6666666666666665
140
- - 2.7
141
- - 2.7333333333333334
142
- - 2.7666666666666666
143
- - 2.8
144
- - 2.8333333333333335
145
- - 2.8666666666666667
146
- - 2.9
147
- - 2.933333333333333
148
- - 2.966666666666667
149
- - 3.0
150
- - 3.033333333333333
151
- - 3.066666666666667
152
- - 3.1
153
- - 3.1333333333333333
154
- - 3.1666666666666665
155
- - 3.2
156
- - 3.2333333333333334
157
- - 3.2666666666666666
158
- - 3.3
159
- eval:
160
- n_episodes: 50
161
- batch_size: 50
162
- use_async_envs: false
163
- wandb:
164
- enable: true
165
- disable_artifact: false
166
- project: lerobot
167
- notes: ''
168
- fps: 30
169
- env:
170
- name: real_world
171
- task: null
172
- state_dim: 6
173
- action_dim: 6
174
- fps: ${fps}
175
- override_dataset_stats:
176
- observation.images.laptop:
177
- mean:
178
- - - - 0.485
179
- - - - 0.456
180
- - - - 0.406
181
- std:
182
- - - - 0.229
183
- - - - 0.224
184
- - - - 0.225
185
- observation.images.phone:
186
- mean:
187
- - - - 0.485
188
- - - - 0.456
189
- - - - 0.406
190
- std:
191
- - - - 0.229
192
- - - - 0.224
193
- - - - 0.225
194
- policy:
195
- name: act
196
- n_obs_steps: 1
197
- chunk_size: 100
198
- n_action_steps: 100
199
- input_shapes:
200
- observation.images.laptop:
201
- - 3
202
- - 480
203
- - 640
204
- observation.images.phone:
205
- - 3
206
- - 480
207
- - 640
208
- observation.state:
209
- - ${env.state_dim}
210
- output_shapes:
211
- action:
212
- - ${env.action_dim}
213
- input_normalization_modes:
214
- observation.images.laptop: mean_std
215
- observation.images.phone: mean_std
216
- observation.state: mean_std
217
- output_normalization_modes:
218
- action: mean_std
219
- vision_backbone: resnet18
220
- pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
221
- replace_final_stride_with_dilation: false
222
- pre_norm: false
223
- dim_model: 512
224
- n_heads: 8
225
- dim_feedforward: 3200
226
- feedforward_activation: relu
227
- n_encoder_layers: 4
228
- n_decoder_layers: 1
229
- use_vae: true
230
- latent_dim: 32
231
- n_vae_encoder_layers: 4
232
- temporal_ensemble_coeff: null
233
- dropout: 0.1
234
- kl_weight: 10.0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/030000/pretrained_model/model.safetensors DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:57ef204268bf2c01669995a2ab24d2e01e17f31d00048d751c86d91e5a6728d6
3
- size 206701072
 
 
 
 
checkpoints/030000/training_state.pth DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:6995ced07e9b409326437d73f175d8a863a71689e32bd91a72a5ef7a623cff87
3
- size 412921871
 
 
 
 
checkpoints/040000/pretrained_model/README.md DELETED
@@ -1,12 +0,0 @@
1
- ---
2
- library_name: lerobot
3
- tags:
4
- - act
5
- - model_hub_mixin
6
- - pytorch_model_hub_mixin
7
- - robotics
8
- ---
9
-
10
- This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
- - Library: https://github.com/huggingface/lerobot
12
- - Docs: [More Information Needed]
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/040000/pretrained_model/config.json DELETED
@@ -1,49 +0,0 @@
1
- {
2
- "chunk_size": 100,
3
- "dim_feedforward": 3200,
4
- "dim_model": 512,
5
- "dropout": 0.1,
6
- "feedforward_activation": "relu",
7
- "input_normalization_modes": {
8
- "observation.images.laptop": "mean_std",
9
- "observation.images.phone": "mean_std",
10
- "observation.state": "mean_std"
11
- },
12
- "input_shapes": {
13
- "observation.images.laptop": [
14
- 3,
15
- 480,
16
- 640
17
- ],
18
- "observation.images.phone": [
19
- 3,
20
- 480,
21
- 640
22
- ],
23
- "observation.state": [
24
- 6
25
- ]
26
- },
27
- "kl_weight": 10.0,
28
- "latent_dim": 32,
29
- "n_action_steps": 100,
30
- "n_decoder_layers": 1,
31
- "n_encoder_layers": 4,
32
- "n_heads": 8,
33
- "n_obs_steps": 1,
34
- "n_vae_encoder_layers": 4,
35
- "output_normalization_modes": {
36
- "action": "mean_std"
37
- },
38
- "output_shapes": {
39
- "action": [
40
- 6
41
- ]
42
- },
43
- "pre_norm": false,
44
- "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
45
- "replace_final_stride_with_dilation": false,
46
- "temporal_ensemble_coeff": null,
47
- "use_vae": true,
48
- "vision_backbone": "resnet18"
49
- }
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/040000/pretrained_model/config.yaml DELETED
@@ -1,234 +0,0 @@
1
- resume: false
2
- device: cuda
3
- use_amp: false
4
- seed: 1000
5
- dataset_repo_id: zijian2022/llmtest107
6
- video_backend: pyav
7
- training:
8
- offline_steps: 80000
9
- num_workers: 4
10
- batch_size: 8
11
- eval_freq: -1
12
- log_freq: 100
13
- save_checkpoint: true
14
- save_freq: 10000
15
- online_steps: 0
16
- online_rollout_n_episodes: 1
17
- online_rollout_batch_size: 1
18
- online_steps_between_rollouts: 1
19
- online_sampling_ratio: 0.5
20
- online_env_seed: null
21
- online_buffer_capacity: null
22
- online_buffer_seed_size: 0
23
- do_online_rollout_async: false
24
- image_transforms:
25
- enable: false
26
- max_num_transforms: 3
27
- random_order: false
28
- brightness:
29
- weight: 1
30
- min_max:
31
- - 0.8
32
- - 1.2
33
- contrast:
34
- weight: 1
35
- min_max:
36
- - 0.8
37
- - 1.2
38
- saturation:
39
- weight: 1
40
- min_max:
41
- - 0.5
42
- - 1.5
43
- hue:
44
- weight: 1
45
- min_max:
46
- - -0.05
47
- - 0.05
48
- sharpness:
49
- weight: 1
50
- min_max:
51
- - 0.8
52
- - 1.2
53
- lr: 1.0e-05
54
- lr_backbone: 1.0e-05
55
- weight_decay: 0.0001
56
- grad_clip_norm: 10
57
- delta_timestamps:
58
- action:
59
- - 0.0
60
- - 0.03333333333333333
61
- - 0.06666666666666667
62
- - 0.1
63
- - 0.13333333333333333
64
- - 0.16666666666666666
65
- - 0.2
66
- - 0.23333333333333334
67
- - 0.26666666666666666
68
- - 0.3
69
- - 0.3333333333333333
70
- - 0.36666666666666664
71
- - 0.4
72
- - 0.43333333333333335
73
- - 0.4666666666666667
74
- - 0.5
75
- - 0.5333333333333333
76
- - 0.5666666666666667
77
- - 0.6
78
- - 0.6333333333333333
79
- - 0.6666666666666666
80
- - 0.7
81
- - 0.7333333333333333
82
- - 0.7666666666666667
83
- - 0.8
84
- - 0.8333333333333334
85
- - 0.8666666666666667
86
- - 0.9
87
- - 0.9333333333333333
88
- - 0.9666666666666667
89
- - 1.0
90
- - 1.0333333333333334
91
- - 1.0666666666666667
92
- - 1.1
93
- - 1.1333333333333333
94
- - 1.1666666666666667
95
- - 1.2
96
- - 1.2333333333333334
97
- - 1.2666666666666666
98
- - 1.3
99
- - 1.3333333333333333
100
- - 1.3666666666666667
101
- - 1.4
102
- - 1.4333333333333333
103
- - 1.4666666666666666
104
- - 1.5
105
- - 1.5333333333333334
106
- - 1.5666666666666667
107
- - 1.6
108
- - 1.6333333333333333
109
- - 1.6666666666666667
110
- - 1.7
111
- - 1.7333333333333334
112
- - 1.7666666666666666
113
- - 1.8
114
- - 1.8333333333333333
115
- - 1.8666666666666667
116
- - 1.9
117
- - 1.9333333333333333
118
- - 1.9666666666666666
119
- - 2.0
120
- - 2.033333333333333
121
- - 2.066666666666667
122
- - 2.1
123
- - 2.1333333333333333
124
- - 2.1666666666666665
125
- - 2.2
126
- - 2.2333333333333334
127
- - 2.2666666666666666
128
- - 2.3
129
- - 2.3333333333333335
130
- - 2.3666666666666667
131
- - 2.4
132
- - 2.433333333333333
133
- - 2.466666666666667
134
- - 2.5
135
- - 2.533333333333333
136
- - 2.566666666666667
137
- - 2.6
138
- - 2.6333333333333333
139
- - 2.6666666666666665
140
- - 2.7
141
- - 2.7333333333333334
142
- - 2.7666666666666666
143
- - 2.8
144
- - 2.8333333333333335
145
- - 2.8666666666666667
146
- - 2.9
147
- - 2.933333333333333
148
- - 2.966666666666667
149
- - 3.0
150
- - 3.033333333333333
151
- - 3.066666666666667
152
- - 3.1
153
- - 3.1333333333333333
154
- - 3.1666666666666665
155
- - 3.2
156
- - 3.2333333333333334
157
- - 3.2666666666666666
158
- - 3.3
159
- eval:
160
- n_episodes: 50
161
- batch_size: 50
162
- use_async_envs: false
163
- wandb:
164
- enable: true
165
- disable_artifact: false
166
- project: lerobot
167
- notes: ''
168
- fps: 30
169
- env:
170
- name: real_world
171
- task: null
172
- state_dim: 6
173
- action_dim: 6
174
- fps: ${fps}
175
- override_dataset_stats:
176
- observation.images.laptop:
177
- mean:
178
- - - - 0.485
179
- - - - 0.456
180
- - - - 0.406
181
- std:
182
- - - - 0.229
183
- - - - 0.224
184
- - - - 0.225
185
- observation.images.phone:
186
- mean:
187
- - - - 0.485
188
- - - - 0.456
189
- - - - 0.406
190
- std:
191
- - - - 0.229
192
- - - - 0.224
193
- - - - 0.225
194
- policy:
195
- name: act
196
- n_obs_steps: 1
197
- chunk_size: 100
198
- n_action_steps: 100
199
- input_shapes:
200
- observation.images.laptop:
201
- - 3
202
- - 480
203
- - 640
204
- observation.images.phone:
205
- - 3
206
- - 480
207
- - 640
208
- observation.state:
209
- - ${env.state_dim}
210
- output_shapes:
211
- action:
212
- - ${env.action_dim}
213
- input_normalization_modes:
214
- observation.images.laptop: mean_std
215
- observation.images.phone: mean_std
216
- observation.state: mean_std
217
- output_normalization_modes:
218
- action: mean_std
219
- vision_backbone: resnet18
220
- pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
221
- replace_final_stride_with_dilation: false
222
- pre_norm: false
223
- dim_model: 512
224
- n_heads: 8
225
- dim_feedforward: 3200
226
- feedforward_activation: relu
227
- n_encoder_layers: 4
228
- n_decoder_layers: 1
229
- use_vae: true
230
- latent_dim: 32
231
- n_vae_encoder_layers: 4
232
- temporal_ensemble_coeff: null
233
- dropout: 0.1
234
- kl_weight: 10.0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/040000/pretrained_model/model.safetensors DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:6ab6a04d9a32bacdf6ef2015a07f0d98e93235389100e25e4549b7b1f8e2da70
3
- size 206701072
 
 
 
 
checkpoints/040000/training_state.pth DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:66a557074bca8dce771b76a26b177e3aaa3537a6de89a0b1b91be44d8314ae1d
3
- size 412921871
 
 
 
 
checkpoints/050000/pretrained_model/README.md DELETED
@@ -1,12 +0,0 @@
1
- ---
2
- library_name: lerobot
3
- tags:
4
- - act
5
- - model_hub_mixin
6
- - pytorch_model_hub_mixin
7
- - robotics
8
- ---
9
-
10
- This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
- - Library: https://github.com/huggingface/lerobot
12
- - Docs: [More Information Needed]
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/050000/pretrained_model/config.json DELETED
@@ -1,49 +0,0 @@
1
- {
2
- "chunk_size": 100,
3
- "dim_feedforward": 3200,
4
- "dim_model": 512,
5
- "dropout": 0.1,
6
- "feedforward_activation": "relu",
7
- "input_normalization_modes": {
8
- "observation.images.laptop": "mean_std",
9
- "observation.images.phone": "mean_std",
10
- "observation.state": "mean_std"
11
- },
12
- "input_shapes": {
13
- "observation.images.laptop": [
14
- 3,
15
- 480,
16
- 640
17
- ],
18
- "observation.images.phone": [
19
- 3,
20
- 480,
21
- 640
22
- ],
23
- "observation.state": [
24
- 6
25
- ]
26
- },
27
- "kl_weight": 10.0,
28
- "latent_dim": 32,
29
- "n_action_steps": 100,
30
- "n_decoder_layers": 1,
31
- "n_encoder_layers": 4,
32
- "n_heads": 8,
33
- "n_obs_steps": 1,
34
- "n_vae_encoder_layers": 4,
35
- "output_normalization_modes": {
36
- "action": "mean_std"
37
- },
38
- "output_shapes": {
39
- "action": [
40
- 6
41
- ]
42
- },
43
- "pre_norm": false,
44
- "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
45
- "replace_final_stride_with_dilation": false,
46
- "temporal_ensemble_coeff": null,
47
- "use_vae": true,
48
- "vision_backbone": "resnet18"
49
- }
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/050000/pretrained_model/config.yaml DELETED
@@ -1,234 +0,0 @@
1
- resume: false
2
- device: cuda
3
- use_amp: false
4
- seed: 1000
5
- dataset_repo_id: zijian2022/llmtest107
6
- video_backend: pyav
7
- training:
8
- offline_steps: 80000
9
- num_workers: 4
10
- batch_size: 8
11
- eval_freq: -1
12
- log_freq: 100
13
- save_checkpoint: true
14
- save_freq: 10000
15
- online_steps: 0
16
- online_rollout_n_episodes: 1
17
- online_rollout_batch_size: 1
18
- online_steps_between_rollouts: 1
19
- online_sampling_ratio: 0.5
20
- online_env_seed: null
21
- online_buffer_capacity: null
22
- online_buffer_seed_size: 0
23
- do_online_rollout_async: false
24
- image_transforms:
25
- enable: false
26
- max_num_transforms: 3
27
- random_order: false
28
- brightness:
29
- weight: 1
30
- min_max:
31
- - 0.8
32
- - 1.2
33
- contrast:
34
- weight: 1
35
- min_max:
36
- - 0.8
37
- - 1.2
38
- saturation:
39
- weight: 1
40
- min_max:
41
- - 0.5
42
- - 1.5
43
- hue:
44
- weight: 1
45
- min_max:
46
- - -0.05
47
- - 0.05
48
- sharpness:
49
- weight: 1
50
- min_max:
51
- - 0.8
52
- - 1.2
53
- lr: 1.0e-05
54
- lr_backbone: 1.0e-05
55
- weight_decay: 0.0001
56
- grad_clip_norm: 10
57
- delta_timestamps:
58
- action:
59
- - 0.0
60
- - 0.03333333333333333
61
- - 0.06666666666666667
62
- - 0.1
63
- - 0.13333333333333333
64
- - 0.16666666666666666
65
- - 0.2
66
- - 0.23333333333333334
67
- - 0.26666666666666666
68
- - 0.3
69
- - 0.3333333333333333
70
- - 0.36666666666666664
71
- - 0.4
72
- - 0.43333333333333335
73
- - 0.4666666666666667
74
- - 0.5
75
- - 0.5333333333333333
76
- - 0.5666666666666667
77
- - 0.6
78
- - 0.6333333333333333
79
- - 0.6666666666666666
80
- - 0.7
81
- - 0.7333333333333333
82
- - 0.7666666666666667
83
- - 0.8
84
- - 0.8333333333333334
85
- - 0.8666666666666667
86
- - 0.9
87
- - 0.9333333333333333
88
- - 0.9666666666666667
89
- - 1.0
90
- - 1.0333333333333334
91
- - 1.0666666666666667
92
- - 1.1
93
- - 1.1333333333333333
94
- - 1.1666666666666667
95
- - 1.2
96
- - 1.2333333333333334
97
- - 1.2666666666666666
98
- - 1.3
99
- - 1.3333333333333333
100
- - 1.3666666666666667
101
- - 1.4
102
- - 1.4333333333333333
103
- - 1.4666666666666666
104
- - 1.5
105
- - 1.5333333333333334
106
- - 1.5666666666666667
107
- - 1.6
108
- - 1.6333333333333333
109
- - 1.6666666666666667
110
- - 1.7
111
- - 1.7333333333333334
112
- - 1.7666666666666666
113
- - 1.8
114
- - 1.8333333333333333
115
- - 1.8666666666666667
116
- - 1.9
117
- - 1.9333333333333333
118
- - 1.9666666666666666
119
- - 2.0
120
- - 2.033333333333333
121
- - 2.066666666666667
122
- - 2.1
123
- - 2.1333333333333333
124
- - 2.1666666666666665
125
- - 2.2
126
- - 2.2333333333333334
127
- - 2.2666666666666666
128
- - 2.3
129
- - 2.3333333333333335
130
- - 2.3666666666666667
131
- - 2.4
132
- - 2.433333333333333
133
- - 2.466666666666667
134
- - 2.5
135
- - 2.533333333333333
136
- - 2.566666666666667
137
- - 2.6
138
- - 2.6333333333333333
139
- - 2.6666666666666665
140
- - 2.7
141
- - 2.7333333333333334
142
- - 2.7666666666666666
143
- - 2.8
144
- - 2.8333333333333335
145
- - 2.8666666666666667
146
- - 2.9
147
- - 2.933333333333333
148
- - 2.966666666666667
149
- - 3.0
150
- - 3.033333333333333
151
- - 3.066666666666667
152
- - 3.1
153
- - 3.1333333333333333
154
- - 3.1666666666666665
155
- - 3.2
156
- - 3.2333333333333334
157
- - 3.2666666666666666
158
- - 3.3
159
- eval:
160
- n_episodes: 50
161
- batch_size: 50
162
- use_async_envs: false
163
- wandb:
164
- enable: true
165
- disable_artifact: false
166
- project: lerobot
167
- notes: ''
168
- fps: 30
169
- env:
170
- name: real_world
171
- task: null
172
- state_dim: 6
173
- action_dim: 6
174
- fps: ${fps}
175
- override_dataset_stats:
176
- observation.images.laptop:
177
- mean:
178
- - - - 0.485
179
- - - - 0.456
180
- - - - 0.406
181
- std:
182
- - - - 0.229
183
- - - - 0.224
184
- - - - 0.225
185
- observation.images.phone:
186
- mean:
187
- - - - 0.485
188
- - - - 0.456
189
- - - - 0.406
190
- std:
191
- - - - 0.229
192
- - - - 0.224
193
- - - - 0.225
194
- policy:
195
- name: act
196
- n_obs_steps: 1
197
- chunk_size: 100
198
- n_action_steps: 100
199
- input_shapes:
200
- observation.images.laptop:
201
- - 3
202
- - 480
203
- - 640
204
- observation.images.phone:
205
- - 3
206
- - 480
207
- - 640
208
- observation.state:
209
- - ${env.state_dim}
210
- output_shapes:
211
- action:
212
- - ${env.action_dim}
213
- input_normalization_modes:
214
- observation.images.laptop: mean_std
215
- observation.images.phone: mean_std
216
- observation.state: mean_std
217
- output_normalization_modes:
218
- action: mean_std
219
- vision_backbone: resnet18
220
- pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
221
- replace_final_stride_with_dilation: false
222
- pre_norm: false
223
- dim_model: 512
224
- n_heads: 8
225
- dim_feedforward: 3200
226
- feedforward_activation: relu
227
- n_encoder_layers: 4
228
- n_decoder_layers: 1
229
- use_vae: true
230
- latent_dim: 32
231
- n_vae_encoder_layers: 4
232
- temporal_ensemble_coeff: null
233
- dropout: 0.1
234
- kl_weight: 10.0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/050000/pretrained_model/model.safetensors DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:9e3b6c4ecc3cb2593a57f4fdc3e777d9b27287855f5e36ada106a14ea30b0874
3
- size 206701072
 
 
 
 
checkpoints/050000/training_state.pth DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:2e07538029891154b82e3b717302806e087f8b5ed2b82e9c029836e52c4920eb
3
- size 412921871
 
 
 
 
checkpoints/060000/pretrained_model/README.md DELETED
@@ -1,12 +0,0 @@
1
- ---
2
- library_name: lerobot
3
- tags:
4
- - act
5
- - model_hub_mixin
6
- - pytorch_model_hub_mixin
7
- - robotics
8
- ---
9
-
10
- This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
- - Library: https://github.com/huggingface/lerobot
12
- - Docs: [More Information Needed]
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/060000/pretrained_model/config.json DELETED
@@ -1,49 +0,0 @@
1
- {
2
- "chunk_size": 100,
3
- "dim_feedforward": 3200,
4
- "dim_model": 512,
5
- "dropout": 0.1,
6
- "feedforward_activation": "relu",
7
- "input_normalization_modes": {
8
- "observation.images.laptop": "mean_std",
9
- "observation.images.phone": "mean_std",
10
- "observation.state": "mean_std"
11
- },
12
- "input_shapes": {
13
- "observation.images.laptop": [
14
- 3,
15
- 480,
16
- 640
17
- ],
18
- "observation.images.phone": [
19
- 3,
20
- 480,
21
- 640
22
- ],
23
- "observation.state": [
24
- 6
25
- ]
26
- },
27
- "kl_weight": 10.0,
28
- "latent_dim": 32,
29
- "n_action_steps": 100,
30
- "n_decoder_layers": 1,
31
- "n_encoder_layers": 4,
32
- "n_heads": 8,
33
- "n_obs_steps": 1,
34
- "n_vae_encoder_layers": 4,
35
- "output_normalization_modes": {
36
- "action": "mean_std"
37
- },
38
- "output_shapes": {
39
- "action": [
40
- 6
41
- ]
42
- },
43
- "pre_norm": false,
44
- "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
45
- "replace_final_stride_with_dilation": false,
46
- "temporal_ensemble_coeff": null,
47
- "use_vae": true,
48
- "vision_backbone": "resnet18"
49
- }
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/060000/pretrained_model/config.yaml DELETED
@@ -1,234 +0,0 @@
1
- resume: false
2
- device: cuda
3
- use_amp: false
4
- seed: 1000
5
- dataset_repo_id: zijian2022/llmtest107
6
- video_backend: pyav
7
- training:
8
- offline_steps: 80000
9
- num_workers: 4
10
- batch_size: 8
11
- eval_freq: -1
12
- log_freq: 100
13
- save_checkpoint: true
14
- save_freq: 10000
15
- online_steps: 0
16
- online_rollout_n_episodes: 1
17
- online_rollout_batch_size: 1
18
- online_steps_between_rollouts: 1
19
- online_sampling_ratio: 0.5
20
- online_env_seed: null
21
- online_buffer_capacity: null
22
- online_buffer_seed_size: 0
23
- do_online_rollout_async: false
24
- image_transforms:
25
- enable: false
26
- max_num_transforms: 3
27
- random_order: false
28
- brightness:
29
- weight: 1
30
- min_max:
31
- - 0.8
32
- - 1.2
33
- contrast:
34
- weight: 1
35
- min_max:
36
- - 0.8
37
- - 1.2
38
- saturation:
39
- weight: 1
40
- min_max:
41
- - 0.5
42
- - 1.5
43
- hue:
44
- weight: 1
45
- min_max:
46
- - -0.05
47
- - 0.05
48
- sharpness:
49
- weight: 1
50
- min_max:
51
- - 0.8
52
- - 1.2
53
- lr: 1.0e-05
54
- lr_backbone: 1.0e-05
55
- weight_decay: 0.0001
56
- grad_clip_norm: 10
57
- delta_timestamps:
58
- action:
59
- - 0.0
60
- - 0.03333333333333333
61
- - 0.06666666666666667
62
- - 0.1
63
- - 0.13333333333333333
64
- - 0.16666666666666666
65
- - 0.2
66
- - 0.23333333333333334
67
- - 0.26666666666666666
68
- - 0.3
69
- - 0.3333333333333333
70
- - 0.36666666666666664
71
- - 0.4
72
- - 0.43333333333333335
73
- - 0.4666666666666667
74
- - 0.5
75
- - 0.5333333333333333
76
- - 0.5666666666666667
77
- - 0.6
78
- - 0.6333333333333333
79
- - 0.6666666666666666
80
- - 0.7
81
- - 0.7333333333333333
82
- - 0.7666666666666667
83
- - 0.8
84
- - 0.8333333333333334
85
- - 0.8666666666666667
86
- - 0.9
87
- - 0.9333333333333333
88
- - 0.9666666666666667
89
- - 1.0
90
- - 1.0333333333333334
91
- - 1.0666666666666667
92
- - 1.1
93
- - 1.1333333333333333
94
- - 1.1666666666666667
95
- - 1.2
96
- - 1.2333333333333334
97
- - 1.2666666666666666
98
- - 1.3
99
- - 1.3333333333333333
100
- - 1.3666666666666667
101
- - 1.4
102
- - 1.4333333333333333
103
- - 1.4666666666666666
104
- - 1.5
105
- - 1.5333333333333334
106
- - 1.5666666666666667
107
- - 1.6
108
- - 1.6333333333333333
109
- - 1.6666666666666667
110
- - 1.7
111
- - 1.7333333333333334
112
- - 1.7666666666666666
113
- - 1.8
114
- - 1.8333333333333333
115
- - 1.8666666666666667
116
- - 1.9
117
- - 1.9333333333333333
118
- - 1.9666666666666666
119
- - 2.0
120
- - 2.033333333333333
121
- - 2.066666666666667
122
- - 2.1
123
- - 2.1333333333333333
124
- - 2.1666666666666665
125
- - 2.2
126
- - 2.2333333333333334
127
- - 2.2666666666666666
128
- - 2.3
129
- - 2.3333333333333335
130
- - 2.3666666666666667
131
- - 2.4
132
- - 2.433333333333333
133
- - 2.466666666666667
134
- - 2.5
135
- - 2.533333333333333
136
- - 2.566666666666667
137
- - 2.6
138
- - 2.6333333333333333
139
- - 2.6666666666666665
140
- - 2.7
141
- - 2.7333333333333334
142
- - 2.7666666666666666
143
- - 2.8
144
- - 2.8333333333333335
145
- - 2.8666666666666667
146
- - 2.9
147
- - 2.933333333333333
148
- - 2.966666666666667
149
- - 3.0
150
- - 3.033333333333333
151
- - 3.066666666666667
152
- - 3.1
153
- - 3.1333333333333333
154
- - 3.1666666666666665
155
- - 3.2
156
- - 3.2333333333333334
157
- - 3.2666666666666666
158
- - 3.3
159
- eval:
160
- n_episodes: 50
161
- batch_size: 50
162
- use_async_envs: false
163
- wandb:
164
- enable: true
165
- disable_artifact: false
166
- project: lerobot
167
- notes: ''
168
- fps: 30
169
- env:
170
- name: real_world
171
- task: null
172
- state_dim: 6
173
- action_dim: 6
174
- fps: ${fps}
175
- override_dataset_stats:
176
- observation.images.laptop:
177
- mean:
178
- - - - 0.485
179
- - - - 0.456
180
- - - - 0.406
181
- std:
182
- - - - 0.229
183
- - - - 0.224
184
- - - - 0.225
185
- observation.images.phone:
186
- mean:
187
- - - - 0.485
188
- - - - 0.456
189
- - - - 0.406
190
- std:
191
- - - - 0.229
192
- - - - 0.224
193
- - - - 0.225
194
- policy:
195
- name: act
196
- n_obs_steps: 1
197
- chunk_size: 100
198
- n_action_steps: 100
199
- input_shapes:
200
- observation.images.laptop:
201
- - 3
202
- - 480
203
- - 640
204
- observation.images.phone:
205
- - 3
206
- - 480
207
- - 640
208
- observation.state:
209
- - ${env.state_dim}
210
- output_shapes:
211
- action:
212
- - ${env.action_dim}
213
- input_normalization_modes:
214
- observation.images.laptop: mean_std
215
- observation.images.phone: mean_std
216
- observation.state: mean_std
217
- output_normalization_modes:
218
- action: mean_std
219
- vision_backbone: resnet18
220
- pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
221
- replace_final_stride_with_dilation: false
222
- pre_norm: false
223
- dim_model: 512
224
- n_heads: 8
225
- dim_feedforward: 3200
226
- feedforward_activation: relu
227
- n_encoder_layers: 4
228
- n_decoder_layers: 1
229
- use_vae: true
230
- latent_dim: 32
231
- n_vae_encoder_layers: 4
232
- temporal_ensemble_coeff: null
233
- dropout: 0.1
234
- kl_weight: 10.0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/060000/pretrained_model/model.safetensors DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:cb895c842e4836161625edde791795585d7399255dbb25b7b3fdbce5787c8675
3
- size 206701072
 
 
 
 
checkpoints/060000/training_state.pth DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:3ac0779da2f79ab56c0cfa5c70d3a991ade44ba258a137b25b12ec6fefba445b
3
- size 412921871
 
 
 
 
checkpoints/070000/pretrained_model/README.md DELETED
@@ -1,12 +0,0 @@
1
- ---
2
- library_name: lerobot
3
- tags:
4
- - act
5
- - model_hub_mixin
6
- - pytorch_model_hub_mixin
7
- - robotics
8
- ---
9
-
10
- This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
- - Library: https://github.com/huggingface/lerobot
12
- - Docs: [More Information Needed]
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/070000/pretrained_model/config.json DELETED
@@ -1,49 +0,0 @@
1
- {
2
- "chunk_size": 100,
3
- "dim_feedforward": 3200,
4
- "dim_model": 512,
5
- "dropout": 0.1,
6
- "feedforward_activation": "relu",
7
- "input_normalization_modes": {
8
- "observation.images.laptop": "mean_std",
9
- "observation.images.phone": "mean_std",
10
- "observation.state": "mean_std"
11
- },
12
- "input_shapes": {
13
- "observation.images.laptop": [
14
- 3,
15
- 480,
16
- 640
17
- ],
18
- "observation.images.phone": [
19
- 3,
20
- 480,
21
- 640
22
- ],
23
- "observation.state": [
24
- 6
25
- ]
26
- },
27
- "kl_weight": 10.0,
28
- "latent_dim": 32,
29
- "n_action_steps": 100,
30
- "n_decoder_layers": 1,
31
- "n_encoder_layers": 4,
32
- "n_heads": 8,
33
- "n_obs_steps": 1,
34
- "n_vae_encoder_layers": 4,
35
- "output_normalization_modes": {
36
- "action": "mean_std"
37
- },
38
- "output_shapes": {
39
- "action": [
40
- 6
41
- ]
42
- },
43
- "pre_norm": false,
44
- "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
45
- "replace_final_stride_with_dilation": false,
46
- "temporal_ensemble_coeff": null,
47
- "use_vae": true,
48
- "vision_backbone": "resnet18"
49
- }
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/070000/pretrained_model/config.yaml DELETED
@@ -1,234 +0,0 @@
1
- resume: false
2
- device: cuda
3
- use_amp: false
4
- seed: 1000
5
- dataset_repo_id: zijian2022/llmtest107
6
- video_backend: pyav
7
- training:
8
- offline_steps: 80000
9
- num_workers: 4
10
- batch_size: 8
11
- eval_freq: -1
12
- log_freq: 100
13
- save_checkpoint: true
14
- save_freq: 10000
15
- online_steps: 0
16
- online_rollout_n_episodes: 1
17
- online_rollout_batch_size: 1
18
- online_steps_between_rollouts: 1
19
- online_sampling_ratio: 0.5
20
- online_env_seed: null
21
- online_buffer_capacity: null
22
- online_buffer_seed_size: 0
23
- do_online_rollout_async: false
24
- image_transforms:
25
- enable: false
26
- max_num_transforms: 3
27
- random_order: false
28
- brightness:
29
- weight: 1
30
- min_max:
31
- - 0.8
32
- - 1.2
33
- contrast:
34
- weight: 1
35
- min_max:
36
- - 0.8
37
- - 1.2
38
- saturation:
39
- weight: 1
40
- min_max:
41
- - 0.5
42
- - 1.5
43
- hue:
44
- weight: 1
45
- min_max:
46
- - -0.05
47
- - 0.05
48
- sharpness:
49
- weight: 1
50
- min_max:
51
- - 0.8
52
- - 1.2
53
- lr: 1.0e-05
54
- lr_backbone: 1.0e-05
55
- weight_decay: 0.0001
56
- grad_clip_norm: 10
57
- delta_timestamps:
58
- action:
59
- - 0.0
60
- - 0.03333333333333333
61
- - 0.06666666666666667
62
- - 0.1
63
- - 0.13333333333333333
64
- - 0.16666666666666666
65
- - 0.2
66
- - 0.23333333333333334
67
- - 0.26666666666666666
68
- - 0.3
69
- - 0.3333333333333333
70
- - 0.36666666666666664
71
- - 0.4
72
- - 0.43333333333333335
73
- - 0.4666666666666667
74
- - 0.5
75
- - 0.5333333333333333
76
- - 0.5666666666666667
77
- - 0.6
78
- - 0.6333333333333333
79
- - 0.6666666666666666
80
- - 0.7
81
- - 0.7333333333333333
82
- - 0.7666666666666667
83
- - 0.8
84
- - 0.8333333333333334
85
- - 0.8666666666666667
86
- - 0.9
87
- - 0.9333333333333333
88
- - 0.9666666666666667
89
- - 1.0
90
- - 1.0333333333333334
91
- - 1.0666666666666667
92
- - 1.1
93
- - 1.1333333333333333
94
- - 1.1666666666666667
95
- - 1.2
96
- - 1.2333333333333334
97
- - 1.2666666666666666
98
- - 1.3
99
- - 1.3333333333333333
100
- - 1.3666666666666667
101
- - 1.4
102
- - 1.4333333333333333
103
- - 1.4666666666666666
104
- - 1.5
105
- - 1.5333333333333334
106
- - 1.5666666666666667
107
- - 1.6
108
- - 1.6333333333333333
109
- - 1.6666666666666667
110
- - 1.7
111
- - 1.7333333333333334
112
- - 1.7666666666666666
113
- - 1.8
114
- - 1.8333333333333333
115
- - 1.8666666666666667
116
- - 1.9
117
- - 1.9333333333333333
118
- - 1.9666666666666666
119
- - 2.0
120
- - 2.033333333333333
121
- - 2.066666666666667
122
- - 2.1
123
- - 2.1333333333333333
124
- - 2.1666666666666665
125
- - 2.2
126
- - 2.2333333333333334
127
- - 2.2666666666666666
128
- - 2.3
129
- - 2.3333333333333335
130
- - 2.3666666666666667
131
- - 2.4
132
- - 2.433333333333333
133
- - 2.466666666666667
134
- - 2.5
135
- - 2.533333333333333
136
- - 2.566666666666667
137
- - 2.6
138
- - 2.6333333333333333
139
- - 2.6666666666666665
140
- - 2.7
141
- - 2.7333333333333334
142
- - 2.7666666666666666
143
- - 2.8
144
- - 2.8333333333333335
145
- - 2.8666666666666667
146
- - 2.9
147
- - 2.933333333333333
148
- - 2.966666666666667
149
- - 3.0
150
- - 3.033333333333333
151
- - 3.066666666666667
152
- - 3.1
153
- - 3.1333333333333333
154
- - 3.1666666666666665
155
- - 3.2
156
- - 3.2333333333333334
157
- - 3.2666666666666666
158
- - 3.3
159
- eval:
160
- n_episodes: 50
161
- batch_size: 50
162
- use_async_envs: false
163
- wandb:
164
- enable: true
165
- disable_artifact: false
166
- project: lerobot
167
- notes: ''
168
- fps: 30
169
- env:
170
- name: real_world
171
- task: null
172
- state_dim: 6
173
- action_dim: 6
174
- fps: ${fps}
175
- override_dataset_stats:
176
- observation.images.laptop:
177
- mean:
178
- - - - 0.485
179
- - - - 0.456
180
- - - - 0.406
181
- std:
182
- - - - 0.229
183
- - - - 0.224
184
- - - - 0.225
185
- observation.images.phone:
186
- mean:
187
- - - - 0.485
188
- - - - 0.456
189
- - - - 0.406
190
- std:
191
- - - - 0.229
192
- - - - 0.224
193
- - - - 0.225
194
- policy:
195
- name: act
196
- n_obs_steps: 1
197
- chunk_size: 100
198
- n_action_steps: 100
199
- input_shapes:
200
- observation.images.laptop:
201
- - 3
202
- - 480
203
- - 640
204
- observation.images.phone:
205
- - 3
206
- - 480
207
- - 640
208
- observation.state:
209
- - ${env.state_dim}
210
- output_shapes:
211
- action:
212
- - ${env.action_dim}
213
- input_normalization_modes:
214
- observation.images.laptop: mean_std
215
- observation.images.phone: mean_std
216
- observation.state: mean_std
217
- output_normalization_modes:
218
- action: mean_std
219
- vision_backbone: resnet18
220
- pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
221
- replace_final_stride_with_dilation: false
222
- pre_norm: false
223
- dim_model: 512
224
- n_heads: 8
225
- dim_feedforward: 3200
226
- feedforward_activation: relu
227
- n_encoder_layers: 4
228
- n_decoder_layers: 1
229
- use_vae: true
230
- latent_dim: 32
231
- n_vae_encoder_layers: 4
232
- temporal_ensemble_coeff: null
233
- dropout: 0.1
234
- kl_weight: 10.0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/070000/pretrained_model/model.safetensors DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:3221ce4d94d234197644ef239e81f9ca71c4e30bb3ab287755ab7c49cdcdc77b
3
- size 206701072
 
 
 
 
checkpoints/070000/training_state.pth DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:2282ba2f76690e5ae78651c321df00a701c245e66fe4c6653a5c0774f488310f
3
- size 412921871
 
 
 
 
checkpoints/080000/pretrained_model/README.md DELETED
@@ -1,12 +0,0 @@
1
- ---
2
- library_name: lerobot
3
- tags:
4
- - act
5
- - model_hub_mixin
6
- - pytorch_model_hub_mixin
7
- - robotics
8
- ---
9
-
10
- This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
- - Library: https://github.com/huggingface/lerobot
12
- - Docs: [More Information Needed]
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/080000/pretrained_model/config.json DELETED
@@ -1,49 +0,0 @@
1
- {
2
- "chunk_size": 100,
3
- "dim_feedforward": 3200,
4
- "dim_model": 512,
5
- "dropout": 0.1,
6
- "feedforward_activation": "relu",
7
- "input_normalization_modes": {
8
- "observation.images.laptop": "mean_std",
9
- "observation.images.phone": "mean_std",
10
- "observation.state": "mean_std"
11
- },
12
- "input_shapes": {
13
- "observation.images.laptop": [
14
- 3,
15
- 480,
16
- 640
17
- ],
18
- "observation.images.phone": [
19
- 3,
20
- 480,
21
- 640
22
- ],
23
- "observation.state": [
24
- 6
25
- ]
26
- },
27
- "kl_weight": 10.0,
28
- "latent_dim": 32,
29
- "n_action_steps": 100,
30
- "n_decoder_layers": 1,
31
- "n_encoder_layers": 4,
32
- "n_heads": 8,
33
- "n_obs_steps": 1,
34
- "n_vae_encoder_layers": 4,
35
- "output_normalization_modes": {
36
- "action": "mean_std"
37
- },
38
- "output_shapes": {
39
- "action": [
40
- 6
41
- ]
42
- },
43
- "pre_norm": false,
44
- "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
45
- "replace_final_stride_with_dilation": false,
46
- "temporal_ensemble_coeff": null,
47
- "use_vae": true,
48
- "vision_backbone": "resnet18"
49
- }
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/080000/pretrained_model/config.yaml DELETED
@@ -1,234 +0,0 @@
1
- resume: false
2
- device: cuda
3
- use_amp: false
4
- seed: 1000
5
- dataset_repo_id: zijian2022/llmtest107
6
- video_backend: pyav
7
- training:
8
- offline_steps: 80000
9
- num_workers: 4
10
- batch_size: 8
11
- eval_freq: -1
12
- log_freq: 100
13
- save_checkpoint: true
14
- save_freq: 10000
15
- online_steps: 0
16
- online_rollout_n_episodes: 1
17
- online_rollout_batch_size: 1
18
- online_steps_between_rollouts: 1
19
- online_sampling_ratio: 0.5
20
- online_env_seed: null
21
- online_buffer_capacity: null
22
- online_buffer_seed_size: 0
23
- do_online_rollout_async: false
24
- image_transforms:
25
- enable: false
26
- max_num_transforms: 3
27
- random_order: false
28
- brightness:
29
- weight: 1
30
- min_max:
31
- - 0.8
32
- - 1.2
33
- contrast:
34
- weight: 1
35
- min_max:
36
- - 0.8
37
- - 1.2
38
- saturation:
39
- weight: 1
40
- min_max:
41
- - 0.5
42
- - 1.5
43
- hue:
44
- weight: 1
45
- min_max:
46
- - -0.05
47
- - 0.05
48
- sharpness:
49
- weight: 1
50
- min_max:
51
- - 0.8
52
- - 1.2
53
- lr: 1.0e-05
54
- lr_backbone: 1.0e-05
55
- weight_decay: 0.0001
56
- grad_clip_norm: 10
57
- delta_timestamps:
58
- action:
59
- - 0.0
60
- - 0.03333333333333333
61
- - 0.06666666666666667
62
- - 0.1
63
- - 0.13333333333333333
64
- - 0.16666666666666666
65
- - 0.2
66
- - 0.23333333333333334
67
- - 0.26666666666666666
68
- - 0.3
69
- - 0.3333333333333333
70
- - 0.36666666666666664
71
- - 0.4
72
- - 0.43333333333333335
73
- - 0.4666666666666667
74
- - 0.5
75
- - 0.5333333333333333
76
- - 0.5666666666666667
77
- - 0.6
78
- - 0.6333333333333333
79
- - 0.6666666666666666
80
- - 0.7
81
- - 0.7333333333333333
82
- - 0.7666666666666667
83
- - 0.8
84
- - 0.8333333333333334
85
- - 0.8666666666666667
86
- - 0.9
87
- - 0.9333333333333333
88
- - 0.9666666666666667
89
- - 1.0
90
- - 1.0333333333333334
91
- - 1.0666666666666667
92
- - 1.1
93
- - 1.1333333333333333
94
- - 1.1666666666666667
95
- - 1.2
96
- - 1.2333333333333334
97
- - 1.2666666666666666
98
- - 1.3
99
- - 1.3333333333333333
100
- - 1.3666666666666667
101
- - 1.4
102
- - 1.4333333333333333
103
- - 1.4666666666666666
104
- - 1.5
105
- - 1.5333333333333334
106
- - 1.5666666666666667
107
- - 1.6
108
- - 1.6333333333333333
109
- - 1.6666666666666667
110
- - 1.7
111
- - 1.7333333333333334
112
- - 1.7666666666666666
113
- - 1.8
114
- - 1.8333333333333333
115
- - 1.8666666666666667
116
- - 1.9
117
- - 1.9333333333333333
118
- - 1.9666666666666666
119
- - 2.0
120
- - 2.033333333333333
121
- - 2.066666666666667
122
- - 2.1
123
- - 2.1333333333333333
124
- - 2.1666666666666665
125
- - 2.2
126
- - 2.2333333333333334
127
- - 2.2666666666666666
128
- - 2.3
129
- - 2.3333333333333335
130
- - 2.3666666666666667
131
- - 2.4
132
- - 2.433333333333333
133
- - 2.466666666666667
134
- - 2.5
135
- - 2.533333333333333
136
- - 2.566666666666667
137
- - 2.6
138
- - 2.6333333333333333
139
- - 2.6666666666666665
140
- - 2.7
141
- - 2.7333333333333334
142
- - 2.7666666666666666
143
- - 2.8
144
- - 2.8333333333333335
145
- - 2.8666666666666667
146
- - 2.9
147
- - 2.933333333333333
148
- - 2.966666666666667
149
- - 3.0
150
- - 3.033333333333333
151
- - 3.066666666666667
152
- - 3.1
153
- - 3.1333333333333333
154
- - 3.1666666666666665
155
- - 3.2
156
- - 3.2333333333333334
157
- - 3.2666666666666666
158
- - 3.3
159
- eval:
160
- n_episodes: 50
161
- batch_size: 50
162
- use_async_envs: false
163
- wandb:
164
- enable: true
165
- disable_artifact: false
166
- project: lerobot
167
- notes: ''
168
- fps: 30
169
- env:
170
- name: real_world
171
- task: null
172
- state_dim: 6
173
- action_dim: 6
174
- fps: ${fps}
175
- override_dataset_stats:
176
- observation.images.laptop:
177
- mean:
178
- - - - 0.485
179
- - - - 0.456
180
- - - - 0.406
181
- std:
182
- - - - 0.229
183
- - - - 0.224
184
- - - - 0.225
185
- observation.images.phone:
186
- mean:
187
- - - - 0.485
188
- - - - 0.456
189
- - - - 0.406
190
- std:
191
- - - - 0.229
192
- - - - 0.224
193
- - - - 0.225
194
- policy:
195
- name: act
196
- n_obs_steps: 1
197
- chunk_size: 100
198
- n_action_steps: 100
199
- input_shapes:
200
- observation.images.laptop:
201
- - 3
202
- - 480
203
- - 640
204
- observation.images.phone:
205
- - 3
206
- - 480
207
- - 640
208
- observation.state:
209
- - ${env.state_dim}
210
- output_shapes:
211
- action:
212
- - ${env.action_dim}
213
- input_normalization_modes:
214
- observation.images.laptop: mean_std
215
- observation.images.phone: mean_std
216
- observation.state: mean_std
217
- output_normalization_modes:
218
- action: mean_std
219
- vision_backbone: resnet18
220
- pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
221
- replace_final_stride_with_dilation: false
222
- pre_norm: false
223
- dim_model: 512
224
- n_heads: 8
225
- dim_feedforward: 3200
226
- feedforward_activation: relu
227
- n_encoder_layers: 4
228
- n_decoder_layers: 1
229
- use_vae: true
230
- latent_dim: 32
231
- n_vae_encoder_layers: 4
232
- temporal_ensemble_coeff: null
233
- dropout: 0.1
234
- kl_weight: 10.0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
checkpoints/080000/pretrained_model/model.safetensors DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:0b47cd4a164cf1e0111b28a53f0a8a71f1052315f058a0a275cd6a71dab4d4f0
3
- size 206701072
 
 
 
 
checkpoints/080000/training_state.pth DELETED
@@ -1,3 +0,0 @@
1
- version https://git-lfs.github.com/spec/v1
2
- oid sha256:992173d1260311a18a2fc414e147548117e5e9b53546c34a80478e3921ff1723
3
- size 412921871