oshvartz commited on
Commit
536c639
1 Parent(s): 63d9fbf

Upload folder using huggingface_hub

Browse files
Files changed (4) hide show
  1. README.md +12 -0
  2. config.json +49 -0
  3. config.yaml +248 -0
  4. model.safetensors +3 -0
README.md ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: lerobot
3
+ tags:
4
+ - act
5
+ - model_hub_mixin
6
+ - pytorch_model_hub_mixin
7
+ - robotics
8
+ ---
9
+
10
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
+ - Library: https://github.com/huggingface/lerobot
12
+ - Docs: [More Information Needed]
config.json ADDED
@@ -0,0 +1,49 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "dim_feedforward": 3200,
4
+ "dim_model": 512,
5
+ "dropout": 0.1,
6
+ "feedforward_activation": "relu",
7
+ "input_normalization_modes": {
8
+ "observation.images.laptop": "mean_std",
9
+ "observation.images.phone": "mean_std",
10
+ "observation.state": "mean_std"
11
+ },
12
+ "input_shapes": {
13
+ "observation.images.laptop": [
14
+ 3,
15
+ 480,
16
+ 640
17
+ ],
18
+ "observation.images.phone": [
19
+ 3,
20
+ 480,
21
+ 640
22
+ ],
23
+ "observation.state": [
24
+ 6
25
+ ]
26
+ },
27
+ "kl_weight": 10.0,
28
+ "latent_dim": 32,
29
+ "n_action_steps": 100,
30
+ "n_decoder_layers": 1,
31
+ "n_encoder_layers": 4,
32
+ "n_heads": 8,
33
+ "n_obs_steps": 1,
34
+ "n_vae_encoder_layers": 4,
35
+ "output_normalization_modes": {
36
+ "action": "mean_std"
37
+ },
38
+ "output_shapes": {
39
+ "action": [
40
+ 6
41
+ ]
42
+ },
43
+ "pre_norm": false,
44
+ "pretrained_backbone_weights": "ResNet18_Weights.IMAGENET1K_V1",
45
+ "replace_final_stride_with_dilation": false,
46
+ "temporal_ensemble_coeff": null,
47
+ "use_vae": true,
48
+ "vision_backbone": "resnet18"
49
+ }
config.yaml ADDED
@@ -0,0 +1,248 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: true
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id:
6
+ - yanivmel1/yaniv_new_cube_1
7
+ - yanivmel1/yaniv_new_cube_2
8
+ - yanivmel1/yaniv_new_cube_3
9
+ - yanivmel1/yaniv_new_cube_4
10
+ - yanivmel1/yaniv_new_cube_5
11
+ - yanivmel1/yaniv_new_cube_6
12
+ - yanivmel1/yaniv_new_cube_7
13
+ - yanivmel1/yaniv_new_cube_8
14
+ - yanivmel1/yaniv_new_cube_9
15
+ - yanivmel1/yaniv_new_cube_10
16
+ - yanivmel1/yaniv_new_cube_11
17
+ - yanivmel1/yaniv_new_cube_12
18
+ - yanivmel1/yaniv_new_cube_13
19
+ - yanivmel1/yaniv_new_cube_14
20
+ video_backend: pyav
21
+ training:
22
+ offline_steps: 250000
23
+ num_workers: 4
24
+ batch_size: 8
25
+ eval_freq: -1
26
+ log_freq: 100
27
+ save_checkpoint: true
28
+ save_freq: 10000
29
+ online_steps: 0
30
+ online_rollout_n_episodes: 1
31
+ online_rollout_batch_size: 1
32
+ online_steps_between_rollouts: 1
33
+ online_sampling_ratio: 0.5
34
+ online_env_seed: null
35
+ online_buffer_capacity: null
36
+ online_buffer_seed_size: 0
37
+ do_online_rollout_async: false
38
+ image_transforms:
39
+ enable: false
40
+ max_num_transforms: 3
41
+ random_order: false
42
+ brightness:
43
+ weight: 1
44
+ min_max:
45
+ - 0.8
46
+ - 1.2
47
+ contrast:
48
+ weight: 1
49
+ min_max:
50
+ - 0.8
51
+ - 1.2
52
+ saturation:
53
+ weight: 1
54
+ min_max:
55
+ - 0.5
56
+ - 1.5
57
+ hue:
58
+ weight: 1
59
+ min_max:
60
+ - -0.05
61
+ - 0.05
62
+ sharpness:
63
+ weight: 1
64
+ min_max:
65
+ - 0.8
66
+ - 1.2
67
+ lr: 1.0e-05
68
+ lr_backbone: 1.0e-05
69
+ weight_decay: 0.0001
70
+ grad_clip_norm: 10
71
+ delta_timestamps:
72
+ action:
73
+ - 0.0
74
+ - 0.03333333333333333
75
+ - 0.06666666666666667
76
+ - 0.1
77
+ - 0.13333333333333333
78
+ - 0.16666666666666666
79
+ - 0.2
80
+ - 0.23333333333333334
81
+ - 0.26666666666666666
82
+ - 0.3
83
+ - 0.3333333333333333
84
+ - 0.36666666666666664
85
+ - 0.4
86
+ - 0.43333333333333335
87
+ - 0.4666666666666667
88
+ - 0.5
89
+ - 0.5333333333333333
90
+ - 0.5666666666666667
91
+ - 0.6
92
+ - 0.6333333333333333
93
+ - 0.6666666666666666
94
+ - 0.7
95
+ - 0.7333333333333333
96
+ - 0.7666666666666667
97
+ - 0.8
98
+ - 0.8333333333333334
99
+ - 0.8666666666666667
100
+ - 0.9
101
+ - 0.9333333333333333
102
+ - 0.9666666666666667
103
+ - 1.0
104
+ - 1.0333333333333334
105
+ - 1.0666666666666667
106
+ - 1.1
107
+ - 1.1333333333333333
108
+ - 1.1666666666666667
109
+ - 1.2
110
+ - 1.2333333333333334
111
+ - 1.2666666666666666
112
+ - 1.3
113
+ - 1.3333333333333333
114
+ - 1.3666666666666667
115
+ - 1.4
116
+ - 1.4333333333333333
117
+ - 1.4666666666666666
118
+ - 1.5
119
+ - 1.5333333333333334
120
+ - 1.5666666666666667
121
+ - 1.6
122
+ - 1.6333333333333333
123
+ - 1.6666666666666667
124
+ - 1.7
125
+ - 1.7333333333333334
126
+ - 1.7666666666666666
127
+ - 1.8
128
+ - 1.8333333333333333
129
+ - 1.8666666666666667
130
+ - 1.9
131
+ - 1.9333333333333333
132
+ - 1.9666666666666666
133
+ - 2.0
134
+ - 2.033333333333333
135
+ - 2.066666666666667
136
+ - 2.1
137
+ - 2.1333333333333333
138
+ - 2.1666666666666665
139
+ - 2.2
140
+ - 2.2333333333333334
141
+ - 2.2666666666666666
142
+ - 2.3
143
+ - 2.3333333333333335
144
+ - 2.3666666666666667
145
+ - 2.4
146
+ - 2.433333333333333
147
+ - 2.466666666666667
148
+ - 2.5
149
+ - 2.533333333333333
150
+ - 2.566666666666667
151
+ - 2.6
152
+ - 2.6333333333333333
153
+ - 2.6666666666666665
154
+ - 2.7
155
+ - 2.7333333333333334
156
+ - 2.7666666666666666
157
+ - 2.8
158
+ - 2.8333333333333335
159
+ - 2.8666666666666667
160
+ - 2.9
161
+ - 2.933333333333333
162
+ - 2.966666666666667
163
+ - 3.0
164
+ - 3.033333333333333
165
+ - 3.066666666666667
166
+ - 3.1
167
+ - 3.1333333333333333
168
+ - 3.1666666666666665
169
+ - 3.2
170
+ - 3.2333333333333334
171
+ - 3.2666666666666666
172
+ - 3.3
173
+ eval:
174
+ n_episodes: 50
175
+ batch_size: 50
176
+ use_async_envs: true
177
+ wandb:
178
+ enable: false
179
+ disable_artifact: false
180
+ project: lerobot
181
+ notes: ''
182
+ fps: 30
183
+ env:
184
+ name: real_world
185
+ task: null
186
+ state_dim: 6
187
+ action_dim: 6
188
+ fps: ${fps}
189
+ override_dataset_stats:
190
+ observation.images.laptop:
191
+ mean:
192
+ - - - 0.485
193
+ - - - 0.456
194
+ - - - 0.406
195
+ std:
196
+ - - - 0.229
197
+ - - - 0.224
198
+ - - - 0.225
199
+ observation.images.phone:
200
+ mean:
201
+ - - - 0.485
202
+ - - - 0.456
203
+ - - - 0.406
204
+ std:
205
+ - - - 0.229
206
+ - - - 0.224
207
+ - - - 0.225
208
+ policy:
209
+ name: act
210
+ n_obs_steps: 1
211
+ chunk_size: 100
212
+ n_action_steps: 100
213
+ input_shapes:
214
+ observation.images.laptop:
215
+ - 3
216
+ - 480
217
+ - 640
218
+ observation.images.phone:
219
+ - 3
220
+ - 480
221
+ - 640
222
+ observation.state:
223
+ - ${env.state_dim}
224
+ output_shapes:
225
+ action:
226
+ - ${env.action_dim}
227
+ input_normalization_modes:
228
+ observation.images.laptop: mean_std
229
+ observation.images.phone: mean_std
230
+ observation.state: mean_std
231
+ output_normalization_modes:
232
+ action: mean_std
233
+ vision_backbone: resnet18
234
+ pretrained_backbone_weights: ResNet18_Weights.IMAGENET1K_V1
235
+ replace_final_stride_with_dilation: false
236
+ pre_norm: false
237
+ dim_model: 512
238
+ n_heads: 8
239
+ dim_feedforward: 3200
240
+ feedforward_activation: relu
241
+ n_encoder_layers: 4
242
+ n_decoder_layers: 1
243
+ use_vae: true
244
+ latent_dim: 32
245
+ n_vae_encoder_layers: 4
246
+ temporal_ensemble_momentum: null
247
+ dropout: 0.1
248
+ kl_weight: 10.0
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:225389cac4e4bbbfc91f50a55d3214ff096484d3a5226f7fc7ad0d5ef262b483
3
+ size 206701072