Training in progress epoch 36
Browse files- README.md +19 -18
- tf_model.h5 +1 -1
README.md
CHANGED
|
@@ -16,18 +16,18 @@ probably proofread and complete it, then remove this comment. -->
|
|
| 16 |
|
| 17 |
This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
|
| 18 |
It achieves the following results on the evaluation set:
|
| 19 |
-
- Train Loss: 3.
|
| 20 |
-
- Validation Loss: 3.
|
| 21 |
-
- Validation Mean Iou: 0.
|
| 22 |
-
- Validation Mean Accuracy: 0.
|
| 23 |
-
- Validation Overall Accuracy: 0.
|
| 24 |
-
- Validation Accuracy Wall: 0.
|
| 25 |
-
- Validation Accuracy Building: 0.
|
| 26 |
- Validation Accuracy Sky: 0.0
|
| 27 |
-
- Validation Accuracy Floor: 0.
|
| 28 |
-
- Validation Accuracy Tree: 0.
|
| 29 |
- Validation Accuracy Ceiling: 0.0
|
| 30 |
-
- Validation Accuracy Road: 0.
|
| 31 |
- Validation Accuracy Bed : nan
|
| 32 |
- Validation Accuracy Windowpane: nan
|
| 33 |
- Validation Accuracy Grass: nan
|
|
@@ -171,16 +171,16 @@ It achieves the following results on the evaluation set:
|
|
| 171 |
- Validation Accuracy Glass: nan
|
| 172 |
- Validation Accuracy Clock: nan
|
| 173 |
- Validation Accuracy Flag: nan
|
| 174 |
-
- Validation Iou Wall: 0.
|
| 175 |
-
- Validation Iou Building: 0.
|
| 176 |
- Validation Iou Sky: 0.0
|
| 177 |
-
- Validation Iou Floor: 0.
|
| 178 |
-
- Validation Iou Tree: 0.
|
| 179 |
- Validation Iou Ceiling: 0.0
|
| 180 |
-
- Validation Iou Road: 0.
|
| 181 |
- Validation Iou Bed : 0.0
|
| 182 |
- Validation Iou Windowpane: nan
|
| 183 |
-
- Validation Iou Grass:
|
| 184 |
- Validation Iou Cabinet: 0.0
|
| 185 |
- Validation Iou Sidewalk: 0.0
|
| 186 |
- Validation Iou Person: nan
|
|
@@ -204,7 +204,7 @@ It achieves the following results on the evaluation set:
|
|
| 204 |
- Validation Iou Armchair: 0.0
|
| 205 |
- Validation Iou Seat: 0.0
|
| 206 |
- Validation Iou Fence: nan
|
| 207 |
-
- Validation Iou Desk:
|
| 208 |
- Validation Iou Rock: 0.0
|
| 209 |
- Validation Iou Wardrobe: nan
|
| 210 |
- Validation Iou Lamp: nan
|
|
@@ -321,7 +321,7 @@ It achieves the following results on the evaluation set:
|
|
| 321 |
- Validation Iou Glass: nan
|
| 322 |
- Validation Iou Clock: nan
|
| 323 |
- Validation Iou Flag: nan
|
| 324 |
-
- Epoch:
|
| 325 |
|
| 326 |
## Model description
|
| 327 |
|
|
@@ -383,6 +383,7 @@ The following hyperparameters were used during training:
|
|
| 383 |
| 3.1226 | 3.7160 | 0.0190 | 0.0598 | 0.1974 | 0.0973 | 0.5741 | 0.0 | 0.6288 | 0.6740 | 0.0 | 0.0594 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0658 | 0.1516 | 0.0 | 0.2604 | 0.1143 | 0.0 | 0.0528 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 33 |
|
| 384 |
| 3.0775 | 3.7232 | 0.0212 | 0.0610 | 0.1960 | 0.0783 | 0.5857 | 0.0 | 0.4794 | 0.6828 | 0.0 | 0.2484 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0599 | 0.1505 | 0.0 | 0.2374 | 0.1078 | 0.0 | 0.1653 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 34 |
|
| 385 |
| 3.0994 | 3.7900 | 0.0169 | 0.0589 | 0.1951 | 0.0938 | 0.5572 | 0.0 | 0.6722 | 0.6740 | 0.0 | 0.0037 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0650 | 0.1509 | 0.0 | 0.2646 | 0.1083 | 0.0 | 0.0037 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 35 |
|
|
|
|
| 386 |
|
| 387 |
|
| 388 |
### Framework versions
|
|
|
|
| 16 |
|
| 17 |
This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
|
| 18 |
It achieves the following results on the evaluation set:
|
| 19 |
+
- Train Loss: 3.1479
|
| 20 |
+
- Validation Loss: 3.7468
|
| 21 |
+
- Validation Mean Iou: 0.0163
|
| 22 |
+
- Validation Mean Accuracy: 0.0597
|
| 23 |
+
- Validation Overall Accuracy: 0.1983
|
| 24 |
+
- Validation Accuracy Wall: 0.0879
|
| 25 |
+
- Validation Accuracy Building: 0.5661
|
| 26 |
- Validation Accuracy Sky: 0.0
|
| 27 |
+
- Validation Accuracy Floor: 0.6888
|
| 28 |
+
- Validation Accuracy Tree: 0.6853
|
| 29 |
- Validation Accuracy Ceiling: 0.0
|
| 30 |
+
- Validation Accuracy Road: 0.0033
|
| 31 |
- Validation Accuracy Bed : nan
|
| 32 |
- Validation Accuracy Windowpane: nan
|
| 33 |
- Validation Accuracy Grass: nan
|
|
|
|
| 171 |
- Validation Accuracy Glass: nan
|
| 172 |
- Validation Accuracy Clock: nan
|
| 173 |
- Validation Accuracy Flag: nan
|
| 174 |
+
- Validation Iou Wall: 0.0790
|
| 175 |
+
- Validation Iou Building: 0.1526
|
| 176 |
- Validation Iou Sky: 0.0
|
| 177 |
+
- Validation Iou Floor: 0.2642
|
| 178 |
+
- Validation Iou Tree: 0.1037
|
| 179 |
- Validation Iou Ceiling: 0.0
|
| 180 |
+
- Validation Iou Road: 0.0033
|
| 181 |
- Validation Iou Bed : 0.0
|
| 182 |
- Validation Iou Windowpane: nan
|
| 183 |
+
- Validation Iou Grass: 0.0
|
| 184 |
- Validation Iou Cabinet: 0.0
|
| 185 |
- Validation Iou Sidewalk: 0.0
|
| 186 |
- Validation Iou Person: nan
|
|
|
|
| 204 |
- Validation Iou Armchair: 0.0
|
| 205 |
- Validation Iou Seat: 0.0
|
| 206 |
- Validation Iou Fence: nan
|
| 207 |
+
- Validation Iou Desk: 0.0
|
| 208 |
- Validation Iou Rock: 0.0
|
| 209 |
- Validation Iou Wardrobe: nan
|
| 210 |
- Validation Iou Lamp: nan
|
|
|
|
| 321 |
- Validation Iou Glass: nan
|
| 322 |
- Validation Iou Clock: nan
|
| 323 |
- Validation Iou Flag: nan
|
| 324 |
+
- Epoch: 36
|
| 325 |
|
| 326 |
## Model description
|
| 327 |
|
|
|
|
| 383 |
| 3.1226 | 3.7160 | 0.0190 | 0.0598 | 0.1974 | 0.0973 | 0.5741 | 0.0 | 0.6288 | 0.6740 | 0.0 | 0.0594 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0658 | 0.1516 | 0.0 | 0.2604 | 0.1143 | 0.0 | 0.0528 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 33 |
|
| 384 |
| 3.0775 | 3.7232 | 0.0212 | 0.0610 | 0.1960 | 0.0783 | 0.5857 | 0.0 | 0.4794 | 0.6828 | 0.0 | 0.2484 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0599 | 0.1505 | 0.0 | 0.2374 | 0.1078 | 0.0 | 0.1653 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 34 |
|
| 385 |
| 3.0994 | 3.7900 | 0.0169 | 0.0589 | 0.1951 | 0.0938 | 0.5572 | 0.0 | 0.6722 | 0.6740 | 0.0 | 0.0037 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0650 | 0.1509 | 0.0 | 0.2646 | 0.1083 | 0.0 | 0.0037 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 35 |
|
| 386 |
+
| 3.1479 | 3.7468 | 0.0163 | 0.0597 | 0.1983 | 0.0879 | 0.5661 | 0.0 | 0.6888 | 0.6853 | 0.0 | 0.0033 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0790 | 0.1526 | 0.0 | 0.2642 | 0.1037 | 0.0 | 0.0033 | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 36 |
|
| 387 |
|
| 388 |
|
| 389 |
### Framework versions
|
tf_model.h5
CHANGED
|
@@ -1,3 +1,3 @@
|
|
| 1 |
version https://git-lfs.github.com/spec/v1
|
| 2 |
-
oid sha256:
|
| 3 |
size 15285696
|
|
|
|
| 1 |
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:1ffd785b35533a272e4478c944552c620e34a68266fb62c47643463c60a36aca
|
| 3 |
size 15285696
|