Training in progress epoch 20
Browse files- README.md +24 -23
- tf_model.h5 +1 -1
README.md
CHANGED
|
@@ -16,18 +16,18 @@ probably proofread and complete it, then remove this comment. -->
|
|
| 16 |
|
| 17 |
This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
|
| 18 |
It achieves the following results on the evaluation set:
|
| 19 |
-
- Train Loss: 3.
|
| 20 |
-
- Validation Loss: 3.
|
| 21 |
-
- Validation Mean Iou: 0.
|
| 22 |
-
- Validation Mean Accuracy: 0.
|
| 23 |
-
- Validation Overall Accuracy: 0.
|
| 24 |
-
- Validation Accuracy Wall: 0.
|
| 25 |
-
- Validation Accuracy Building: 0.
|
| 26 |
- Validation Accuracy Sky: 0.0
|
| 27 |
-
- Validation Accuracy Floor: 0.
|
| 28 |
-
- Validation Accuracy Tree: 0.
|
| 29 |
-
- Validation Accuracy Ceiling: 0.
|
| 30 |
-
- Validation Accuracy Road: 0.
|
| 31 |
- Validation Accuracy Bed : nan
|
| 32 |
- Validation Accuracy Windowpane: nan
|
| 33 |
- Validation Accuracy Grass: nan
|
|
@@ -36,7 +36,7 @@ It achieves the following results on the evaluation set:
|
|
| 36 |
- Validation Accuracy Person: nan
|
| 37 |
- Validation Accuracy Earth: 0.0
|
| 38 |
- Validation Accuracy Door: 0.0
|
| 39 |
-
- Validation Accuracy Table: 0.
|
| 40 |
- Validation Accuracy Mountain: 0.0
|
| 41 |
- Validation Accuracy Plant: 0.0
|
| 42 |
- Validation Accuracy Curtain: 0.0
|
|
@@ -62,7 +62,7 @@ It achieves the following results on the evaluation set:
|
|
| 62 |
- Validation Accuracy Railing: nan
|
| 63 |
- Validation Accuracy Cushion: nan
|
| 64 |
- Validation Accuracy Base: nan
|
| 65 |
-
- Validation Accuracy Box: 0.
|
| 66 |
- Validation Accuracy Column: 0.0
|
| 67 |
- Validation Accuracy Signboard: nan
|
| 68 |
- Validation Accuracy Chest of drawers: nan
|
|
@@ -171,22 +171,22 @@ It achieves the following results on the evaluation set:
|
|
| 171 |
- Validation Accuracy Glass: nan
|
| 172 |
- Validation Accuracy Clock: nan
|
| 173 |
- Validation Accuracy Flag: nan
|
| 174 |
-
- Validation Iou Wall: 0.
|
| 175 |
-
- Validation Iou Building: 0.
|
| 176 |
- Validation Iou Sky: 0.0
|
| 177 |
-
- Validation Iou Floor: 0.
|
| 178 |
-
- Validation Iou Tree: 0.
|
| 179 |
-
- Validation Iou Ceiling: 0.
|
| 180 |
-
- Validation Iou Road: 0.
|
| 181 |
- Validation Iou Bed : 0.0
|
| 182 |
- Validation Iou Windowpane: nan
|
| 183 |
- Validation Iou Grass: nan
|
| 184 |
- Validation Iou Cabinet: 0.0
|
| 185 |
- Validation Iou Sidewalk: 0.0
|
| 186 |
-
- Validation Iou Person:
|
| 187 |
- Validation Iou Earth: 0.0
|
| 188 |
- Validation Iou Door: 0.0
|
| 189 |
-
- Validation Iou Table: 0.
|
| 190 |
- Validation Iou Mountain: 0.0
|
| 191 |
- Validation Iou Plant: 0.0
|
| 192 |
- Validation Iou Curtain: 0.0
|
|
@@ -212,7 +212,7 @@ It achieves the following results on the evaluation set:
|
|
| 212 |
- Validation Iou Railing: nan
|
| 213 |
- Validation Iou Cushion: nan
|
| 214 |
- Validation Iou Base: nan
|
| 215 |
-
- Validation Iou Box: 0.
|
| 216 |
- Validation Iou Column: 0.0
|
| 217 |
- Validation Iou Signboard: nan
|
| 218 |
- Validation Iou Chest of drawers: nan
|
|
@@ -321,7 +321,7 @@ It achieves the following results on the evaluation set:
|
|
| 321 |
- Validation Iou Glass: nan
|
| 322 |
- Validation Iou Clock: nan
|
| 323 |
- Validation Iou Flag: nan
|
| 324 |
-
- Epoch:
|
| 325 |
|
| 326 |
## Model description
|
| 327 |
|
|
@@ -367,6 +367,7 @@ The following hyperparameters were used during training:
|
|
| 367 |
| 3.4577 | 3.9696 | 0.0183 | 0.0569 | 0.1803 | 0.0430 | 0.6389 | 0.0 | 0.2913 | 0.6744 | 0.0034 | 0.2837 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0360 | 0.1458 | 0.0 | 0.1755 | 0.1178 | 0.0033 | 0.1634 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 17 |
|
| 368 |
| 3.5356 | 4.0563 | 0.0174 | 0.0550 | 0.1773 | 0.0518 | 0.6832 | 0.0 | 0.3127 | 0.6719 | 0.0022 | 0.1468 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0411 | 0.1458 | 0.0 | 0.1898 | 0.1182 | 0.0022 | 0.1126 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 18 |
|
| 369 |
| 3.4054 | 3.9305 | 0.0152 | 0.0550 | 0.1696 | 0.0285 | 0.7229 | 0.0 | 0.0494 | 0.6519 | 0.0 | 0.3991 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0168 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0270 | 0.1459 | 0.0 | 0.0443 | 0.1180 | 0.0 | 0.2056 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0081 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 19 |
|
|
|
|
| 370 |
|
| 371 |
|
| 372 |
### Framework versions
|
|
|
|
| 16 |
|
| 17 |
This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
|
| 18 |
It achieves the following results on the evaluation set:
|
| 19 |
+
- Train Loss: 3.4100
|
| 20 |
+
- Validation Loss: 3.9039
|
| 21 |
+
- Validation Mean Iou: 0.0169
|
| 22 |
+
- Validation Mean Accuracy: 0.0561
|
| 23 |
+
- Validation Overall Accuracy: 0.1716
|
| 24 |
+
- Validation Accuracy Wall: 0.0274
|
| 25 |
+
- Validation Accuracy Building: 0.7070
|
| 26 |
- Validation Accuracy Sky: 0.0
|
| 27 |
+
- Validation Accuracy Floor: 0.1136
|
| 28 |
+
- Validation Accuracy Tree: 0.6295
|
| 29 |
+
- Validation Accuracy Ceiling: 0.0003
|
| 30 |
+
- Validation Accuracy Road: 0.3661
|
| 31 |
- Validation Accuracy Bed : nan
|
| 32 |
- Validation Accuracy Windowpane: nan
|
| 33 |
- Validation Accuracy Grass: nan
|
|
|
|
| 36 |
- Validation Accuracy Person: nan
|
| 37 |
- Validation Accuracy Earth: 0.0
|
| 38 |
- Validation Accuracy Door: 0.0
|
| 39 |
+
- Validation Accuracy Table: 0.0
|
| 40 |
- Validation Accuracy Mountain: 0.0
|
| 41 |
- Validation Accuracy Plant: 0.0
|
| 42 |
- Validation Accuracy Curtain: 0.0
|
|
|
|
| 62 |
- Validation Accuracy Railing: nan
|
| 63 |
- Validation Accuracy Cushion: nan
|
| 64 |
- Validation Accuracy Base: nan
|
| 65 |
+
- Validation Accuracy Box: 0.0639
|
| 66 |
- Validation Accuracy Column: 0.0
|
| 67 |
- Validation Accuracy Signboard: nan
|
| 68 |
- Validation Accuracy Chest of drawers: nan
|
|
|
|
| 171 |
- Validation Accuracy Glass: nan
|
| 172 |
- Validation Accuracy Clock: nan
|
| 173 |
- Validation Accuracy Flag: nan
|
| 174 |
+
- Validation Iou Wall: 0.0256
|
| 175 |
+
- Validation Iou Building: 0.1455
|
| 176 |
- Validation Iou Sky: 0.0
|
| 177 |
+
- Validation Iou Floor: 0.0937
|
| 178 |
+
- Validation Iou Tree: 0.1128
|
| 179 |
+
- Validation Iou Ceiling: 0.0003
|
| 180 |
+
- Validation Iou Road: 0.1991
|
| 181 |
- Validation Iou Bed : 0.0
|
| 182 |
- Validation Iou Windowpane: nan
|
| 183 |
- Validation Iou Grass: nan
|
| 184 |
- Validation Iou Cabinet: 0.0
|
| 185 |
- Validation Iou Sidewalk: 0.0
|
| 186 |
+
- Validation Iou Person: nan
|
| 187 |
- Validation Iou Earth: 0.0
|
| 188 |
- Validation Iou Door: 0.0
|
| 189 |
+
- Validation Iou Table: 0.0
|
| 190 |
- Validation Iou Mountain: 0.0
|
| 191 |
- Validation Iou Plant: 0.0
|
| 192 |
- Validation Iou Curtain: 0.0
|
|
|
|
| 212 |
- Validation Iou Railing: nan
|
| 213 |
- Validation Iou Cushion: nan
|
| 214 |
- Validation Iou Base: nan
|
| 215 |
+
- Validation Iou Box: 0.0143
|
| 216 |
- Validation Iou Column: 0.0
|
| 217 |
- Validation Iou Signboard: nan
|
| 218 |
- Validation Iou Chest of drawers: nan
|
|
|
|
| 321 |
- Validation Iou Glass: nan
|
| 322 |
- Validation Iou Clock: nan
|
| 323 |
- Validation Iou Flag: nan
|
| 324 |
+
- Epoch: 20
|
| 325 |
|
| 326 |
## Model description
|
| 327 |
|
|
|
|
| 367 |
| 3.4577 | 3.9696 | 0.0183 | 0.0569 | 0.1803 | 0.0430 | 0.6389 | 0.0 | 0.2913 | 0.6744 | 0.0034 | 0.2837 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0360 | 0.1458 | 0.0 | 0.1755 | 0.1178 | 0.0033 | 0.1634 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 17 |
|
| 368 |
| 3.5356 | 4.0563 | 0.0174 | 0.0550 | 0.1773 | 0.0518 | 0.6832 | 0.0 | 0.3127 | 0.6719 | 0.0022 | 0.1468 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0411 | 0.1458 | 0.0 | 0.1898 | 0.1182 | 0.0022 | 0.1126 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 18 |
|
| 369 |
| 3.4054 | 3.9305 | 0.0152 | 0.0550 | 0.1696 | 0.0285 | 0.7229 | 0.0 | 0.0494 | 0.6519 | 0.0 | 0.3991 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0168 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0270 | 0.1459 | 0.0 | 0.0443 | 0.1180 | 0.0 | 0.2056 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0081 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 19 |
|
| 370 |
+
| 3.4100 | 3.9039 | 0.0169 | 0.0561 | 0.1716 | 0.0274 | 0.7070 | 0.0 | 0.1136 | 0.6295 | 0.0003 | 0.3661 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0639 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0256 | 0.1455 | 0.0 | 0.0937 | 0.1128 | 0.0003 | 0.1991 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0143 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 20 |
|
| 371 |
|
| 372 |
|
| 373 |
### Framework versions
|
tf_model.h5
CHANGED
|
@@ -1,3 +1,3 @@
|
|
| 1 |
version https://git-lfs.github.com/spec/v1
|
| 2 |
-
oid sha256:
|
| 3 |
size 15285696
|
|
|
|
| 1 |
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:8bf40b32eb397873b82e957cfe0700dfd3fbb9da098243f69e5aab9260c60bd1
|
| 3 |
size 15285696
|