Training in progress epoch 7
Browse files- README.md +26 -25
- tf_model.h5 +1 -1
README.md
CHANGED
|
@@ -16,18 +16,18 @@ probably proofread and complete it, then remove this comment. -->
|
|
| 16 |
|
| 17 |
This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
|
| 18 |
It achieves the following results on the evaluation set:
|
| 19 |
-
- Train Loss: 4.
|
| 20 |
-
- Validation Loss: 4.
|
| 21 |
-
- Validation Mean Iou: 0.
|
| 22 |
-
- Validation Mean Accuracy: 0.
|
| 23 |
-
- Validation Overall Accuracy: 0.
|
| 24 |
-
- Validation Accuracy Wall: 0.
|
| 25 |
-
- Validation Accuracy Building: 0.
|
| 26 |
-
- Validation Accuracy Sky: 0.
|
| 27 |
-
- Validation Accuracy Floor: 0.
|
| 28 |
-
- Validation Accuracy Tree: 0.
|
| 29 |
-
- Validation Accuracy Ceiling: 0.
|
| 30 |
-
- Validation Accuracy Road: 0.
|
| 31 |
- Validation Accuracy Bed : nan
|
| 32 |
- Validation Accuracy Windowpane: nan
|
| 33 |
- Validation Accuracy Grass: nan
|
|
@@ -35,7 +35,7 @@ It achieves the following results on the evaluation set:
|
|
| 35 |
- Validation Accuracy Sidewalk: 0.0
|
| 36 |
- Validation Accuracy Person: nan
|
| 37 |
- Validation Accuracy Earth: 0.0
|
| 38 |
-
- Validation Accuracy Door: 0.
|
| 39 |
- Validation Accuracy Table: 0.0
|
| 40 |
- Validation Accuracy Mountain: 0.0
|
| 41 |
- Validation Accuracy Plant: 0.0
|
|
@@ -171,21 +171,21 @@ It achieves the following results on the evaluation set:
|
|
| 171 |
- Validation Accuracy Glass: nan
|
| 172 |
- Validation Accuracy Clock: nan
|
| 173 |
- Validation Accuracy Flag: nan
|
| 174 |
-
- Validation Iou Wall: 0.
|
| 175 |
-
- Validation Iou Building: 0.
|
| 176 |
-
- Validation Iou Sky: 0.
|
| 177 |
-
- Validation Iou Floor: 0.
|
| 178 |
-
- Validation Iou Tree: 0.
|
| 179 |
-
- Validation Iou Ceiling: 0.
|
| 180 |
-
- Validation Iou Road: 0.
|
| 181 |
-
- Validation Iou Bed :
|
| 182 |
- Validation Iou Windowpane: nan
|
| 183 |
-
- Validation Iou Grass:
|
| 184 |
- Validation Iou Cabinet: 0.0
|
| 185 |
- Validation Iou Sidewalk: 0.0
|
| 186 |
- Validation Iou Person: nan
|
| 187 |
- Validation Iou Earth: 0.0
|
| 188 |
-
- Validation Iou Door: 0.
|
| 189 |
- Validation Iou Table: 0.0
|
| 190 |
- Validation Iou Mountain: 0.0
|
| 191 |
- Validation Iou Plant: 0.0
|
|
@@ -282,7 +282,7 @@ It achieves the following results on the evaluation set:
|
|
| 282 |
- Validation Iou Plaything: nan
|
| 283 |
- Validation Iou Swimming pool: nan
|
| 284 |
- Validation Iou Stool: nan
|
| 285 |
-
- Validation Iou Barrel:
|
| 286 |
- Validation Iou Basket: nan
|
| 287 |
- Validation Iou Waterfall: nan
|
| 288 |
- Validation Iou Tent: nan
|
|
@@ -321,7 +321,7 @@ It achieves the following results on the evaluation set:
|
|
| 321 |
- Validation Iou Glass: nan
|
| 322 |
- Validation Iou Clock: nan
|
| 323 |
- Validation Iou Flag: nan
|
| 324 |
-
- Epoch:
|
| 325 |
|
| 326 |
## Model description
|
| 327 |
|
|
@@ -354,6 +354,7 @@ The following hyperparameters were used during training:
|
|
| 354 |
| 4.4996 | 4.5281 | 0.0096 | 0.0470 | 0.0882 | 0.0141 | 0.0932 | 0.5134 | 0.3767 | 0.5666 | 0.0324 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0137 | 0.0610 | 0.0016 | 0.2003 | 0.1466 | 0.0278 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 4 |
|
| 355 |
| 4.3523 | 4.7528 | 0.0098 | 0.0559 | 0.0721 | 0.0143 | 0.0016 | 0.0 | 0.3102 | 0.4217 | 0.0 | 0.1516 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0139 | 0.0015 | 0.0 | 0.1836 | 0.1395 | 0.0 | 0.1156 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0047 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 5 |
|
| 356 |
| 4.2547 | 4.5657 | 0.0147 | 0.0544 | 0.0802 | 0.0143 | 0.0661 | 0.6255 | 0.1117 | 0.5791 | 0.0 | 0.3427 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.1104 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0139 | 0.0471 | 0.0016 | 0.0894 | 0.1459 | 0.0 | 0.1977 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0334 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 6 |
|
|
|
|
| 357 |
|
| 358 |
|
| 359 |
### Framework versions
|
|
|
|
| 16 |
|
| 17 |
This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
|
| 18 |
It achieves the following results on the evaluation set:
|
| 19 |
+
- Train Loss: 4.1496
|
| 20 |
+
- Validation Loss: 4.2979
|
| 21 |
+
- Validation Mean Iou: 0.0159
|
| 22 |
+
- Validation Mean Accuracy: 0.0513
|
| 23 |
+
- Validation Overall Accuracy: 0.1590
|
| 24 |
+
- Validation Accuracy Wall: 0.0422
|
| 25 |
+
- Validation Accuracy Building: 0.5858
|
| 26 |
+
- Validation Accuracy Sky: 0.0
|
| 27 |
+
- Validation Accuracy Floor: 0.0113
|
| 28 |
+
- Validation Accuracy Tree: 0.6558
|
| 29 |
+
- Validation Accuracy Ceiling: 0.1287
|
| 30 |
+
- Validation Accuracy Road: 0.3211
|
| 31 |
- Validation Accuracy Bed : nan
|
| 32 |
- Validation Accuracy Windowpane: nan
|
| 33 |
- Validation Accuracy Grass: nan
|
|
|
|
| 35 |
- Validation Accuracy Sidewalk: 0.0
|
| 36 |
- Validation Accuracy Person: nan
|
| 37 |
- Validation Accuracy Earth: 0.0
|
| 38 |
+
- Validation Accuracy Door: 0.0
|
| 39 |
- Validation Accuracy Table: 0.0
|
| 40 |
- Validation Accuracy Mountain: 0.0
|
| 41 |
- Validation Accuracy Plant: 0.0
|
|
|
|
| 171 |
- Validation Accuracy Glass: nan
|
| 172 |
- Validation Accuracy Clock: nan
|
| 173 |
- Validation Accuracy Flag: nan
|
| 174 |
+
- Validation Iou Wall: 0.0331
|
| 175 |
+
- Validation Iou Building: 0.1343
|
| 176 |
+
- Validation Iou Sky: 0.0
|
| 177 |
+
- Validation Iou Floor: 0.0109
|
| 178 |
+
- Validation Iou Tree: 0.1047
|
| 179 |
+
- Validation Iou Ceiling: 0.0827
|
| 180 |
+
- Validation Iou Road: 0.1892
|
| 181 |
+
- Validation Iou Bed : 0.0
|
| 182 |
- Validation Iou Windowpane: nan
|
| 183 |
+
- Validation Iou Grass: nan
|
| 184 |
- Validation Iou Cabinet: 0.0
|
| 185 |
- Validation Iou Sidewalk: 0.0
|
| 186 |
- Validation Iou Person: nan
|
| 187 |
- Validation Iou Earth: 0.0
|
| 188 |
+
- Validation Iou Door: 0.0
|
| 189 |
- Validation Iou Table: 0.0
|
| 190 |
- Validation Iou Mountain: 0.0
|
| 191 |
- Validation Iou Plant: 0.0
|
|
|
|
| 282 |
- Validation Iou Plaything: nan
|
| 283 |
- Validation Iou Swimming pool: nan
|
| 284 |
- Validation Iou Stool: nan
|
| 285 |
+
- Validation Iou Barrel: nan
|
| 286 |
- Validation Iou Basket: nan
|
| 287 |
- Validation Iou Waterfall: nan
|
| 288 |
- Validation Iou Tent: nan
|
|
|
|
| 321 |
- Validation Iou Glass: nan
|
| 322 |
- Validation Iou Clock: nan
|
| 323 |
- Validation Iou Flag: nan
|
| 324 |
+
- Epoch: 7
|
| 325 |
|
| 326 |
## Model description
|
| 327 |
|
|
|
|
| 354 |
| 4.4996 | 4.5281 | 0.0096 | 0.0470 | 0.0882 | 0.0141 | 0.0932 | 0.5134 | 0.3767 | 0.5666 | 0.0324 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0137 | 0.0610 | 0.0016 | 0.2003 | 0.1466 | 0.0278 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 4 |
|
| 355 |
| 4.3523 | 4.7528 | 0.0098 | 0.0559 | 0.0721 | 0.0143 | 0.0016 | 0.0 | 0.3102 | 0.4217 | 0.0 | 0.1516 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0139 | 0.0015 | 0.0 | 0.1836 | 0.1395 | 0.0 | 0.1156 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0047 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 5 |
|
| 356 |
| 4.2547 | 4.5657 | 0.0147 | 0.0544 | 0.0802 | 0.0143 | 0.0661 | 0.6255 | 0.1117 | 0.5791 | 0.0 | 0.3427 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.1104 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0139 | 0.0471 | 0.0016 | 0.0894 | 0.1459 | 0.0 | 0.1977 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0334 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 6 |
|
| 357 |
+
| 4.1496 | 4.2979 | 0.0159 | 0.0513 | 0.1590 | 0.0422 | 0.5858 | 0.0 | 0.0113 | 0.6558 | 0.1287 | 0.3211 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0331 | 0.1343 | 0.0 | 0.0109 | 0.1047 | 0.0827 | 0.1892 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 7 |
|
| 358 |
|
| 359 |
|
| 360 |
### Framework versions
|
tf_model.h5
CHANGED
|
@@ -1,3 +1,3 @@
|
|
| 1 |
version https://git-lfs.github.com/spec/v1
|
| 2 |
-
oid sha256:
|
| 3 |
size 15285696
|
|
|
|
| 1 |
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:8edc27c076398fb224055fae0393585400841070c6e00e4e00e3514450a60da7
|
| 3 |
size 15285696
|