jt5d commited on
Commit
4fdb0f0
·
1 Parent(s): 059d454

Training in progress epoch 15

Browse files
Files changed (2) hide show
  1. README.md +22 -21
  2. tf_model.h5 +1 -1
README.md CHANGED
@@ -16,18 +16,18 @@ probably proofread and complete it, then remove this comment. -->
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
- - Train Loss: 3.6580
20
- - Validation Loss: 4.0425
21
- - Validation Mean Iou: 0.0178
22
- - Validation Mean Accuracy: 0.0577
23
- - Validation Overall Accuracy: 0.1861
24
- - Validation Accuracy Wall: 0.0824
25
- - Validation Accuracy Building: 0.4737
26
  - Validation Accuracy Sky: 0.0
27
- - Validation Accuracy Floor: 0.6762
28
- - Validation Accuracy Tree: 0.6478
29
- - Validation Accuracy Ceiling: 0.0060
30
- - Validation Accuracy Road: 0.0292
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
@@ -35,7 +35,7 @@ It achieves the following results on the evaluation set:
35
  - Validation Accuracy Sidewalk: 0.0
36
  - Validation Accuracy Person: nan
37
  - Validation Accuracy Earth: 0.0
38
- - Validation Accuracy Door: 0.0477
39
  - Validation Accuracy Table: 0.0
40
  - Validation Accuracy Mountain: 0.0
41
  - Validation Accuracy Plant: 0.0
@@ -171,13 +171,13 @@ It achieves the following results on the evaluation set:
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
- - Validation Iou Wall: 0.0639
175
- - Validation Iou Building: 0.1422
176
  - Validation Iou Sky: 0.0
177
- - Validation Iou Floor: 0.2388
178
- - Validation Iou Tree: 0.1234
179
- - Validation Iou Ceiling: 0.0059
180
- - Validation Iou Road: 0.0276
181
  - Validation Iou Bed : nan
182
  - Validation Iou Windowpane: nan
183
  - Validation Iou Grass: 0.0
@@ -185,7 +185,7 @@ It achieves the following results on the evaluation set:
185
  - Validation Iou Sidewalk: 0.0
186
  - Validation Iou Person: nan
187
  - Validation Iou Earth: 0.0
188
- - Validation Iou Door: 0.0215
189
  - Validation Iou Table: 0.0
190
  - Validation Iou Mountain: 0.0
191
  - Validation Iou Plant: 0.0
@@ -294,7 +294,7 @@ It achieves the following results on the evaluation set:
294
  - Validation Iou Food: nan
295
  - Validation Iou Step: nan
296
  - Validation Iou Tank: nan
297
- - Validation Iou Trade name: nan
298
  - Validation Iou Microwave: nan
299
  - Validation Iou Pot: nan
300
  - Validation Iou Animal: nan
@@ -321,7 +321,7 @@ It achieves the following results on the evaluation set:
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
- - Epoch: 14
325
 
326
  ## Model description
327
 
@@ -362,6 +362,7 @@ The following hyperparameters were used during training:
362
  | 3.7944 | 4.1483 | 0.0171 | 0.0512 | 0.1046 | 0.0161 | 0.0958 | 0.3324 | 0.2965 | 0.6669 | 0.0001 | 0.2923 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0401 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0155 | 0.0669 | 0.0009 | 0.1829 | 0.1284 | 0.0001 | 0.1809 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0219 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 12 |
363
  | 3.6975 | 4.1919 | 0.0186 | 0.0559 | 0.1748 | 0.0185 | 0.5993 | 0.0 | 0.1949 | 0.6802 | 0.0604 | 0.3462 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0177 | 0.1376 | 0.0 | 0.1377 | 0.1148 | 0.0473 | 0.1954 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 13 |
364
  | 3.6580 | 4.0425 | 0.0178 | 0.0577 | 0.1861 | 0.0824 | 0.4737 | 0.0 | 0.6762 | 0.6478 | 0.0060 | 0.0292 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0477 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0639 | 0.1422 | 0.0 | 0.2388 | 0.1234 | 0.0059 | 0.0276 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0215 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 14 |
 
365
 
366
 
367
  ### Framework versions
 
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
+ - Train Loss: 3.6281
20
+ - Validation Loss: 4.1303
21
+ - Validation Mean Iou: 0.0191
22
+ - Validation Mean Accuracy: 0.0573
23
+ - Validation Overall Accuracy: 0.1769
24
+ - Validation Accuracy Wall: 0.0680
25
+ - Validation Accuracy Building: 0.5291
26
  - Validation Accuracy Sky: 0.0
27
+ - Validation Accuracy Floor: 0.3214
28
+ - Validation Accuracy Tree: 0.6741
29
+ - Validation Accuracy Ceiling: 0.0003
30
+ - Validation Accuracy Road: 0.3551
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
 
35
  - Validation Accuracy Sidewalk: 0.0
36
  - Validation Accuracy Person: nan
37
  - Validation Accuracy Earth: 0.0
38
+ - Validation Accuracy Door: 0.0
39
  - Validation Accuracy Table: 0.0
40
  - Validation Accuracy Mountain: 0.0
41
  - Validation Accuracy Plant: 0.0
 
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
+ - Validation Iou Wall: 0.0422
175
+ - Validation Iou Building: 0.1392
176
  - Validation Iou Sky: 0.0
177
+ - Validation Iou Floor: 0.1932
178
+ - Validation Iou Tree: 0.1128
179
+ - Validation Iou Ceiling: 0.0003
180
+ - Validation Iou Road: 0.1996
181
  - Validation Iou Bed : nan
182
  - Validation Iou Windowpane: nan
183
  - Validation Iou Grass: 0.0
 
185
  - Validation Iou Sidewalk: 0.0
186
  - Validation Iou Person: nan
187
  - Validation Iou Earth: 0.0
188
+ - Validation Iou Door: 0.0
189
  - Validation Iou Table: 0.0
190
  - Validation Iou Mountain: 0.0
191
  - Validation Iou Plant: 0.0
 
294
  - Validation Iou Food: nan
295
  - Validation Iou Step: nan
296
  - Validation Iou Tank: nan
297
+ - Validation Iou Trade name: 0.0
298
  - Validation Iou Microwave: nan
299
  - Validation Iou Pot: nan
300
  - Validation Iou Animal: nan
 
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
+ - Epoch: 15
325
 
326
  ## Model description
327
 
 
362
  | 3.7944 | 4.1483 | 0.0171 | 0.0512 | 0.1046 | 0.0161 | 0.0958 | 0.3324 | 0.2965 | 0.6669 | 0.0001 | 0.2923 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0401 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0155 | 0.0669 | 0.0009 | 0.1829 | 0.1284 | 0.0001 | 0.1809 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0219 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 12 |
363
  | 3.6975 | 4.1919 | 0.0186 | 0.0559 | 0.1748 | 0.0185 | 0.5993 | 0.0 | 0.1949 | 0.6802 | 0.0604 | 0.3462 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0177 | 0.1376 | 0.0 | 0.1377 | 0.1148 | 0.0473 | 0.1954 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 13 |
364
  | 3.6580 | 4.0425 | 0.0178 | 0.0577 | 0.1861 | 0.0824 | 0.4737 | 0.0 | 0.6762 | 0.6478 | 0.0060 | 0.0292 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0477 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0639 | 0.1422 | 0.0 | 0.2388 | 0.1234 | 0.0059 | 0.0276 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0215 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 14 |
365
+ | 3.6281 | 4.1303 | 0.0191 | 0.0573 | 0.1769 | 0.0680 | 0.5291 | 0.0 | 0.3214 | 0.6741 | 0.0003 | 0.3551 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0422 | 0.1392 | 0.0 | 0.1932 | 0.1128 | 0.0003 | 0.1996 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 15 |
366
 
367
 
368
  ### Framework versions
tf_model.h5 CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:35f6d661d113ee9c76d4325a8adff8fc6661f744af1161e194e122dc674f857a
3
  size 15285696
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:7338a528cdcdbbc942488c9b7e0c16e3187c7a992f4ebd04ca224064884bc822
3
  size 15285696