jt5d commited on
Commit
0725e41
·
1 Parent(s): 1b41e1c

Training in progress epoch 11

Browse files
Files changed (2) hide show
  1. README.md +27 -26
  2. tf_model.h5 +1 -1
README.md CHANGED
@@ -16,18 +16,18 @@ probably proofread and complete it, then remove this comment. -->
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
- - Train Loss: 3.8850
20
- - Validation Loss: 4.3486
21
- - Validation Mean Iou: 0.0145
22
- - Validation Mean Accuracy: 0.0582
23
- - Validation Overall Accuracy: 0.0852
24
- - Validation Accuracy Wall: 0.0493
25
- - Validation Accuracy Building: 0.0224
26
- - Validation Accuracy Sky: 0.7634
27
- - Validation Accuracy Floor: 0.1800
28
- - Validation Accuracy Tree: 0.6277
29
- - Validation Accuracy Ceiling: 0.0001
30
- - Validation Accuracy Road: 0.3368
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
@@ -35,7 +35,7 @@ It achieves the following results on the evaluation set:
35
  - Validation Accuracy Sidewalk: 0.0
36
  - Validation Accuracy Person: nan
37
  - Validation Accuracy Earth: 0.0
38
- - Validation Accuracy Door: 0.0
39
  - Validation Accuracy Table: 0.0
40
  - Validation Accuracy Mountain: 0.0
41
  - Validation Accuracy Plant: 0.0
@@ -171,21 +171,21 @@ It achieves the following results on the evaluation set:
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
- - Validation Iou Wall: 0.0441
175
- - Validation Iou Building: 0.0198
176
- - Validation Iou Sky: 0.0018
177
- - Validation Iou Floor: 0.1301
178
- - Validation Iou Tree: 0.1309
179
- - Validation Iou Ceiling: 0.0001
180
- - Validation Iou Road: 0.1949
181
- - Validation Iou Bed : 0.0
182
  - Validation Iou Windowpane: nan
183
- - Validation Iou Grass: nan
184
  - Validation Iou Cabinet: 0.0
185
  - Validation Iou Sidewalk: 0.0
186
  - Validation Iou Person: nan
187
  - Validation Iou Earth: 0.0
188
- - Validation Iou Door: 0.0
189
  - Validation Iou Table: 0.0
190
  - Validation Iou Mountain: 0.0
191
  - Validation Iou Plant: 0.0
@@ -282,7 +282,7 @@ It achieves the following results on the evaluation set:
282
  - Validation Iou Plaything: nan
283
  - Validation Iou Swimming pool: nan
284
  - Validation Iou Stool: nan
285
- - Validation Iou Barrel: 0.0
286
  - Validation Iou Basket: nan
287
  - Validation Iou Waterfall: nan
288
  - Validation Iou Tent: nan
@@ -294,7 +294,7 @@ It achieves the following results on the evaluation set:
294
  - Validation Iou Food: nan
295
  - Validation Iou Step: nan
296
  - Validation Iou Tank: nan
297
- - Validation Iou Trade name: nan
298
  - Validation Iou Microwave: nan
299
  - Validation Iou Pot: nan
300
  - Validation Iou Animal: nan
@@ -321,7 +321,7 @@ It achieves the following results on the evaluation set:
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
- - Epoch: 10
325
 
326
  ## Model description
327
 
@@ -358,6 +358,7 @@ The following hyperparameters were used during training:
358
  | 4.0244 | 4.2900 | 0.0166 | 0.0568 | 0.1697 | 0.0196 | 0.6099 | 0.0 | 0.0020 | 0.6038 | 0.0671 | 0.5433 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0854 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0186 | 0.1360 | 0.0 | 0.0020 | 0.1413 | 0.0508 | 0.2165 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0315 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 8 |
359
  | 3.9721 | 4.3540 | 0.0186 | 0.0701 | 0.1693 | 0.0250 | 0.5796 | 0.0 | 0.1619 | 0.6299 | 0.0352 | 0.4105 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.5401 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0231 | 0.1351 | 0.0 | 0.1210 | 0.1329 | 0.0302 | 0.2103 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0186 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 9 |
360
  | 3.8850 | 4.3486 | 0.0145 | 0.0582 | 0.0852 | 0.0493 | 0.0224 | 0.7634 | 0.1800 | 0.6277 | 0.0001 | 0.3368 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0441 | 0.0198 | 0.0018 | 0.1301 | 0.1309 | 0.0001 | 0.1949 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 10 |
 
361
 
362
 
363
  ### Framework versions
 
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
+ - Train Loss: 3.8181
20
+ - Validation Loss: 4.3264
21
+ - Validation Mean Iou: 0.0161
22
+ - Validation Mean Accuracy: 0.0518
23
+ - Validation Overall Accuracy: 0.1291
24
+ - Validation Accuracy Wall: 0.3867
25
+ - Validation Accuracy Building: 0.0578
26
+ - Validation Accuracy Sky: 0.0
27
+ - Validation Accuracy Floor: 0.1624
28
+ - Validation Accuracy Tree: 0.6552
29
+ - Validation Accuracy Ceiling: 0.0
30
+ - Validation Accuracy Road: 0.4624
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
 
35
  - Validation Accuracy Sidewalk: 0.0
36
  - Validation Accuracy Person: nan
37
  - Validation Accuracy Earth: 0.0
38
+ - Validation Accuracy Door: 0.0360
39
  - Validation Accuracy Table: 0.0
40
  - Validation Accuracy Mountain: 0.0
41
  - Validation Accuracy Plant: 0.0
 
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
+ - Validation Iou Wall: 0.0594
175
+ - Validation Iou Building: 0.0454
176
+ - Validation Iou Sky: 0.0
177
+ - Validation Iou Floor: 0.1189
178
+ - Validation Iou Tree: 0.1263
179
+ - Validation Iou Ceiling: 0.0
180
+ - Validation Iou Road: 0.2095
181
+ - Validation Iou Bed : nan
182
  - Validation Iou Windowpane: nan
183
+ - Validation Iou Grass: 0.0
184
  - Validation Iou Cabinet: 0.0
185
  - Validation Iou Sidewalk: 0.0
186
  - Validation Iou Person: nan
187
  - Validation Iou Earth: 0.0
188
+ - Validation Iou Door: 0.0199
189
  - Validation Iou Table: 0.0
190
  - Validation Iou Mountain: 0.0
191
  - Validation Iou Plant: 0.0
 
282
  - Validation Iou Plaything: nan
283
  - Validation Iou Swimming pool: nan
284
  - Validation Iou Stool: nan
285
+ - Validation Iou Barrel: nan
286
  - Validation Iou Basket: nan
287
  - Validation Iou Waterfall: nan
288
  - Validation Iou Tent: nan
 
294
  - Validation Iou Food: nan
295
  - Validation Iou Step: nan
296
  - Validation Iou Tank: nan
297
+ - Validation Iou Trade name: 0.0
298
  - Validation Iou Microwave: nan
299
  - Validation Iou Pot: nan
300
  - Validation Iou Animal: nan
 
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
+ - Epoch: 11
325
 
326
  ## Model description
327
 
 
358
  | 4.0244 | 4.2900 | 0.0166 | 0.0568 | 0.1697 | 0.0196 | 0.6099 | 0.0 | 0.0020 | 0.6038 | 0.0671 | 0.5433 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0854 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0186 | 0.1360 | 0.0 | 0.0020 | 0.1413 | 0.0508 | 0.2165 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0315 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 8 |
359
  | 3.9721 | 4.3540 | 0.0186 | 0.0701 | 0.1693 | 0.0250 | 0.5796 | 0.0 | 0.1619 | 0.6299 | 0.0352 | 0.4105 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.5401 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0231 | 0.1351 | 0.0 | 0.1210 | 0.1329 | 0.0302 | 0.2103 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0186 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 9 |
360
  | 3.8850 | 4.3486 | 0.0145 | 0.0582 | 0.0852 | 0.0493 | 0.0224 | 0.7634 | 0.1800 | 0.6277 | 0.0001 | 0.3368 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0441 | 0.0198 | 0.0018 | 0.1301 | 0.1309 | 0.0001 | 0.1949 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 10 |
361
+ | 3.8181 | 4.3264 | 0.0161 | 0.0518 | 0.1291 | 0.3867 | 0.0578 | 0.0 | 0.1624 | 0.6552 | 0.0 | 0.4624 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0360 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0594 | 0.0454 | 0.0 | 0.1189 | 0.1263 | 0.0 | 0.2095 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0199 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 11 |
362
 
363
 
364
  ### Framework versions
tf_model.h5 CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:8a19d885fa6858459dbe283b8d12642d8b4ee6134a9c2f57706121dad3d80c82
3
  size 15285696
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cbb0f85fb6427be47771849ef61ab9762165cf6ef54943a6e68baeaace96ab99
3
  size 15285696