jt5d commited on
Commit
29dd0d9
·
1 Parent(s): 8888fd7

Training in progress epoch 8

Browse files
Files changed (2) hide show
  1. README.md +22 -21
  2. tf_model.h5 +1 -1
README.md CHANGED
@@ -16,18 +16,18 @@ probably proofread and complete it, then remove this comment. -->
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
- - Train Loss: 4.1496
20
- - Validation Loss: 4.2979
21
- - Validation Mean Iou: 0.0159
22
- - Validation Mean Accuracy: 0.0513
23
- - Validation Overall Accuracy: 0.1590
24
- - Validation Accuracy Wall: 0.0422
25
- - Validation Accuracy Building: 0.5858
26
  - Validation Accuracy Sky: 0.0
27
- - Validation Accuracy Floor: 0.0113
28
- - Validation Accuracy Tree: 0.6558
29
- - Validation Accuracy Ceiling: 0.1287
30
- - Validation Accuracy Road: 0.3211
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
@@ -35,7 +35,7 @@ It achieves the following results on the evaluation set:
35
  - Validation Accuracy Sidewalk: 0.0
36
  - Validation Accuracy Person: nan
37
  - Validation Accuracy Earth: 0.0
38
- - Validation Accuracy Door: 0.0
39
  - Validation Accuracy Table: 0.0
40
  - Validation Accuracy Mountain: 0.0
41
  - Validation Accuracy Plant: 0.0
@@ -171,13 +171,13 @@ It achieves the following results on the evaluation set:
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
- - Validation Iou Wall: 0.0331
175
- - Validation Iou Building: 0.1343
176
  - Validation Iou Sky: 0.0
177
- - Validation Iou Floor: 0.0109
178
- - Validation Iou Tree: 0.1047
179
- - Validation Iou Ceiling: 0.0827
180
- - Validation Iou Road: 0.1892
181
  - Validation Iou Bed : 0.0
182
  - Validation Iou Windowpane: nan
183
  - Validation Iou Grass: nan
@@ -185,7 +185,7 @@ It achieves the following results on the evaluation set:
185
  - Validation Iou Sidewalk: 0.0
186
  - Validation Iou Person: nan
187
  - Validation Iou Earth: 0.0
188
- - Validation Iou Door: 0.0
189
  - Validation Iou Table: 0.0
190
  - Validation Iou Mountain: 0.0
191
  - Validation Iou Plant: 0.0
@@ -294,7 +294,7 @@ It achieves the following results on the evaluation set:
294
  - Validation Iou Food: nan
295
  - Validation Iou Step: nan
296
  - Validation Iou Tank: nan
297
- - Validation Iou Trade name: nan
298
  - Validation Iou Microwave: nan
299
  - Validation Iou Pot: nan
300
  - Validation Iou Animal: nan
@@ -321,7 +321,7 @@ It achieves the following results on the evaluation set:
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
- - Epoch: 7
325
 
326
  ## Model description
327
 
@@ -355,6 +355,7 @@ The following hyperparameters were used during training:
355
  | 4.3523 | 4.7528 | 0.0098 | 0.0559 | 0.0721 | 0.0143 | 0.0016 | 0.0 | 0.3102 | 0.4217 | 0.0 | 0.1516 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0139 | 0.0015 | 0.0 | 0.1836 | 0.1395 | 0.0 | 0.1156 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0047 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 5 |
356
  | 4.2547 | 4.5657 | 0.0147 | 0.0544 | 0.0802 | 0.0143 | 0.0661 | 0.6255 | 0.1117 | 0.5791 | 0.0 | 0.3427 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.1104 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0139 | 0.0471 | 0.0016 | 0.0894 | 0.1459 | 0.0 | 0.1977 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0334 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 6 |
357
  | 4.1496 | 4.2979 | 0.0159 | 0.0513 | 0.1590 | 0.0422 | 0.5858 | 0.0 | 0.0113 | 0.6558 | 0.1287 | 0.3211 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0331 | 0.1343 | 0.0 | 0.0109 | 0.1047 | 0.0827 | 0.1892 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 7 |
 
358
 
359
 
360
  ### Framework versions
 
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
+ - Train Loss: 4.0244
20
+ - Validation Loss: 4.2900
21
+ - Validation Mean Iou: 0.0166
22
+ - Validation Mean Accuracy: 0.0568
23
+ - Validation Overall Accuracy: 0.1697
24
+ - Validation Accuracy Wall: 0.0196
25
+ - Validation Accuracy Building: 0.6099
26
  - Validation Accuracy Sky: 0.0
27
+ - Validation Accuracy Floor: 0.0020
28
+ - Validation Accuracy Tree: 0.6038
29
+ - Validation Accuracy Ceiling: 0.0671
30
+ - Validation Accuracy Road: 0.5433
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
 
35
  - Validation Accuracy Sidewalk: 0.0
36
  - Validation Accuracy Person: nan
37
  - Validation Accuracy Earth: 0.0
38
+ - Validation Accuracy Door: 0.0854
39
  - Validation Accuracy Table: 0.0
40
  - Validation Accuracy Mountain: 0.0
41
  - Validation Accuracy Plant: 0.0
 
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
+ - Validation Iou Wall: 0.0186
175
+ - Validation Iou Building: 0.1360
176
  - Validation Iou Sky: 0.0
177
+ - Validation Iou Floor: 0.0020
178
+ - Validation Iou Tree: 0.1413
179
+ - Validation Iou Ceiling: 0.0508
180
+ - Validation Iou Road: 0.2165
181
  - Validation Iou Bed : 0.0
182
  - Validation Iou Windowpane: nan
183
  - Validation Iou Grass: nan
 
185
  - Validation Iou Sidewalk: 0.0
186
  - Validation Iou Person: nan
187
  - Validation Iou Earth: 0.0
188
+ - Validation Iou Door: 0.0315
189
  - Validation Iou Table: 0.0
190
  - Validation Iou Mountain: 0.0
191
  - Validation Iou Plant: 0.0
 
294
  - Validation Iou Food: nan
295
  - Validation Iou Step: nan
296
  - Validation Iou Tank: nan
297
+ - Validation Iou Trade name: 0.0
298
  - Validation Iou Microwave: nan
299
  - Validation Iou Pot: nan
300
  - Validation Iou Animal: nan
 
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
+ - Epoch: 8
325
 
326
  ## Model description
327
 
 
355
  | 4.3523 | 4.7528 | 0.0098 | 0.0559 | 0.0721 | 0.0143 | 0.0016 | 0.0 | 0.3102 | 0.4217 | 0.0 | 0.1516 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0139 | 0.0015 | 0.0 | 0.1836 | 0.1395 | 0.0 | 0.1156 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0047 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 5 |
356
  | 4.2547 | 4.5657 | 0.0147 | 0.0544 | 0.0802 | 0.0143 | 0.0661 | 0.6255 | 0.1117 | 0.5791 | 0.0 | 0.3427 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.1104 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0139 | 0.0471 | 0.0016 | 0.0894 | 0.1459 | 0.0 | 0.1977 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0334 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 6 |
357
  | 4.1496 | 4.2979 | 0.0159 | 0.0513 | 0.1590 | 0.0422 | 0.5858 | 0.0 | 0.0113 | 0.6558 | 0.1287 | 0.3211 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0331 | 0.1343 | 0.0 | 0.0109 | 0.1047 | 0.0827 | 0.1892 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 7 |
358
+ | 4.0244 | 4.2900 | 0.0166 | 0.0568 | 0.1697 | 0.0196 | 0.6099 | 0.0 | 0.0020 | 0.6038 | 0.0671 | 0.5433 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0854 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0186 | 0.1360 | 0.0 | 0.0020 | 0.1413 | 0.0508 | 0.2165 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0315 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 8 |
359
 
360
 
361
  ### Framework versions
tf_model.h5 CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:8edc27c076398fb224055fae0393585400841070c6e00e4e00e3514450a60da7
3
  size 15285696
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:3742b2c4c6cee9d4fb8c8b6a044fa440197ca83c5f14531e5d91d6e4f9009e7c
3
  size 15285696