jt5d commited on
Commit
091de83
·
1 Parent(s): 08bfef1

Training in progress epoch 20

Browse files
Files changed (2) hide show
  1. README.md +24 -23
  2. tf_model.h5 +1 -1
README.md CHANGED
@@ -16,18 +16,18 @@ probably proofread and complete it, then remove this comment. -->
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
- - Train Loss: 3.4054
20
- - Validation Loss: 3.9305
21
- - Validation Mean Iou: 0.0152
22
- - Validation Mean Accuracy: 0.0550
23
- - Validation Overall Accuracy: 0.1696
24
- - Validation Accuracy Wall: 0.0285
25
- - Validation Accuracy Building: 0.7229
26
  - Validation Accuracy Sky: 0.0
27
- - Validation Accuracy Floor: 0.0494
28
- - Validation Accuracy Tree: 0.6519
29
- - Validation Accuracy Ceiling: 0.0
30
- - Validation Accuracy Road: 0.3991
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
@@ -36,7 +36,7 @@ It achieves the following results on the evaluation set:
36
  - Validation Accuracy Person: nan
37
  - Validation Accuracy Earth: 0.0
38
  - Validation Accuracy Door: 0.0
39
- - Validation Accuracy Table: 0.0168
40
  - Validation Accuracy Mountain: 0.0
41
  - Validation Accuracy Plant: 0.0
42
  - Validation Accuracy Curtain: 0.0
@@ -62,7 +62,7 @@ It achieves the following results on the evaluation set:
62
  - Validation Accuracy Railing: nan
63
  - Validation Accuracy Cushion: nan
64
  - Validation Accuracy Base: nan
65
- - Validation Accuracy Box: 0.0
66
  - Validation Accuracy Column: 0.0
67
  - Validation Accuracy Signboard: nan
68
  - Validation Accuracy Chest of drawers: nan
@@ -171,22 +171,22 @@ It achieves the following results on the evaluation set:
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
- - Validation Iou Wall: 0.0270
175
- - Validation Iou Building: 0.1459
176
  - Validation Iou Sky: 0.0
177
- - Validation Iou Floor: 0.0443
178
- - Validation Iou Tree: 0.1180
179
- - Validation Iou Ceiling: 0.0
180
- - Validation Iou Road: 0.2056
181
  - Validation Iou Bed : 0.0
182
  - Validation Iou Windowpane: nan
183
  - Validation Iou Grass: nan
184
  - Validation Iou Cabinet: 0.0
185
  - Validation Iou Sidewalk: 0.0
186
- - Validation Iou Person: 0.0
187
  - Validation Iou Earth: 0.0
188
  - Validation Iou Door: 0.0
189
- - Validation Iou Table: 0.0081
190
  - Validation Iou Mountain: 0.0
191
  - Validation Iou Plant: 0.0
192
  - Validation Iou Curtain: 0.0
@@ -212,7 +212,7 @@ It achieves the following results on the evaluation set:
212
  - Validation Iou Railing: nan
213
  - Validation Iou Cushion: nan
214
  - Validation Iou Base: nan
215
- - Validation Iou Box: 0.0
216
  - Validation Iou Column: 0.0
217
  - Validation Iou Signboard: nan
218
  - Validation Iou Chest of drawers: nan
@@ -321,7 +321,7 @@ It achieves the following results on the evaluation set:
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
- - Epoch: 19
325
 
326
  ## Model description
327
 
@@ -367,6 +367,7 @@ The following hyperparameters were used during training:
367
  | 3.4577 | 3.9696 | 0.0183 | 0.0569 | 0.1803 | 0.0430 | 0.6389 | 0.0 | 0.2913 | 0.6744 | 0.0034 | 0.2837 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0360 | 0.1458 | 0.0 | 0.1755 | 0.1178 | 0.0033 | 0.1634 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 17 |
368
  | 3.5356 | 4.0563 | 0.0174 | 0.0550 | 0.1773 | 0.0518 | 0.6832 | 0.0 | 0.3127 | 0.6719 | 0.0022 | 0.1468 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0411 | 0.1458 | 0.0 | 0.1898 | 0.1182 | 0.0022 | 0.1126 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 18 |
369
  | 3.4054 | 3.9305 | 0.0152 | 0.0550 | 0.1696 | 0.0285 | 0.7229 | 0.0 | 0.0494 | 0.6519 | 0.0 | 0.3991 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0168 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0270 | 0.1459 | 0.0 | 0.0443 | 0.1180 | 0.0 | 0.2056 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0081 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 19 |
 
370
 
371
 
372
  ### Framework versions
 
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
+ - Train Loss: 3.4100
20
+ - Validation Loss: 3.9039
21
+ - Validation Mean Iou: 0.0169
22
+ - Validation Mean Accuracy: 0.0561
23
+ - Validation Overall Accuracy: 0.1716
24
+ - Validation Accuracy Wall: 0.0274
25
+ - Validation Accuracy Building: 0.7070
26
  - Validation Accuracy Sky: 0.0
27
+ - Validation Accuracy Floor: 0.1136
28
+ - Validation Accuracy Tree: 0.6295
29
+ - Validation Accuracy Ceiling: 0.0003
30
+ - Validation Accuracy Road: 0.3661
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
 
36
  - Validation Accuracy Person: nan
37
  - Validation Accuracy Earth: 0.0
38
  - Validation Accuracy Door: 0.0
39
+ - Validation Accuracy Table: 0.0
40
  - Validation Accuracy Mountain: 0.0
41
  - Validation Accuracy Plant: 0.0
42
  - Validation Accuracy Curtain: 0.0
 
62
  - Validation Accuracy Railing: nan
63
  - Validation Accuracy Cushion: nan
64
  - Validation Accuracy Base: nan
65
+ - Validation Accuracy Box: 0.0639
66
  - Validation Accuracy Column: 0.0
67
  - Validation Accuracy Signboard: nan
68
  - Validation Accuracy Chest of drawers: nan
 
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
+ - Validation Iou Wall: 0.0256
175
+ - Validation Iou Building: 0.1455
176
  - Validation Iou Sky: 0.0
177
+ - Validation Iou Floor: 0.0937
178
+ - Validation Iou Tree: 0.1128
179
+ - Validation Iou Ceiling: 0.0003
180
+ - Validation Iou Road: 0.1991
181
  - Validation Iou Bed : 0.0
182
  - Validation Iou Windowpane: nan
183
  - Validation Iou Grass: nan
184
  - Validation Iou Cabinet: 0.0
185
  - Validation Iou Sidewalk: 0.0
186
+ - Validation Iou Person: nan
187
  - Validation Iou Earth: 0.0
188
  - Validation Iou Door: 0.0
189
+ - Validation Iou Table: 0.0
190
  - Validation Iou Mountain: 0.0
191
  - Validation Iou Plant: 0.0
192
  - Validation Iou Curtain: 0.0
 
212
  - Validation Iou Railing: nan
213
  - Validation Iou Cushion: nan
214
  - Validation Iou Base: nan
215
+ - Validation Iou Box: 0.0143
216
  - Validation Iou Column: 0.0
217
  - Validation Iou Signboard: nan
218
  - Validation Iou Chest of drawers: nan
 
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
+ - Epoch: 20
325
 
326
  ## Model description
327
 
 
367
  | 3.4577 | 3.9696 | 0.0183 | 0.0569 | 0.1803 | 0.0430 | 0.6389 | 0.0 | 0.2913 | 0.6744 | 0.0034 | 0.2837 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0360 | 0.1458 | 0.0 | 0.1755 | 0.1178 | 0.0033 | 0.1634 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 17 |
368
  | 3.5356 | 4.0563 | 0.0174 | 0.0550 | 0.1773 | 0.0518 | 0.6832 | 0.0 | 0.3127 | 0.6719 | 0.0022 | 0.1468 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0411 | 0.1458 | 0.0 | 0.1898 | 0.1182 | 0.0022 | 0.1126 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 18 |
369
  | 3.4054 | 3.9305 | 0.0152 | 0.0550 | 0.1696 | 0.0285 | 0.7229 | 0.0 | 0.0494 | 0.6519 | 0.0 | 0.3991 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0168 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0270 | 0.1459 | 0.0 | 0.0443 | 0.1180 | 0.0 | 0.2056 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0081 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 19 |
370
+ | 3.4100 | 3.9039 | 0.0169 | 0.0561 | 0.1716 | 0.0274 | 0.7070 | 0.0 | 0.1136 | 0.6295 | 0.0003 | 0.3661 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0639 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0256 | 0.1455 | 0.0 | 0.0937 | 0.1128 | 0.0003 | 0.1991 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0143 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 20 |
371
 
372
 
373
  ### Framework versions
tf_model.h5 CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:0084f3abd6898fdebcb69e1fead13f0bc3b3e9b4e58ec3e9df0d0c8e0422a049
3
  size 15285696
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:8bf40b32eb397873b82e957cfe0700dfd3fbb9da098243f69e5aab9260c60bd1
3
  size 15285696