jt5d commited on
Commit
1d3a55b
·
1 Parent(s): b73bc97

Training in progress epoch 4

Browse files
Files changed (2) hide show
  1. README.md +37 -36
  2. tf_model.h5 +1 -1
README.md CHANGED
@@ -16,18 +16,18 @@ probably proofread and complete it, then remove this comment. -->
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
- - Train Loss: 4.6097
20
- - Validation Loss: 4.7010
21
- - Validation Mean Iou: 0.0123
22
- - Validation Mean Accuracy: 0.0517
23
- - Validation Overall Accuracy: 0.1522
24
- - Validation Accuracy Wall: 0.0186
25
- - Validation Accuracy Building: 0.6439
26
- - Validation Accuracy Sky: 0.0
27
- - Validation Accuracy Floor: 0.0180
28
- - Validation Accuracy Tree: 0.5476
29
- - Validation Accuracy Ceiling: 0.0002
30
- - Validation Accuracy Road: 0.3980
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
@@ -35,7 +35,7 @@ It achieves the following results on the evaluation set:
35
  - Validation Accuracy Sidewalk: 0.0
36
  - Validation Accuracy Person: nan
37
  - Validation Accuracy Earth: 0.0
38
- - Validation Accuracy Door: 0.1322
39
  - Validation Accuracy Table: 0.0
40
  - Validation Accuracy Mountain: 0.0
41
  - Validation Accuracy Plant: 0.0
@@ -171,21 +171,21 @@ It achieves the following results on the evaluation set:
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
- - Validation Iou Wall: 0.0176
175
- - Validation Iou Building: 0.1352
176
- - Validation Iou Sky: 0.0
177
- - Validation Iou Floor: 0.0171
178
- - Validation Iou Tree: 0.1498
179
- - Validation Iou Ceiling: 0.0002
180
- - Validation Iou Road: 0.2075
181
- - Validation Iou Bed : 0.0
182
  - Validation Iou Windowpane: nan
183
- - Validation Iou Grass: nan
184
  - Validation Iou Cabinet: 0.0
185
  - Validation Iou Sidewalk: 0.0
186
- - Validation Iou Person: nan
187
  - Validation Iou Earth: 0.0
188
- - Validation Iou Door: 0.0256
189
  - Validation Iou Table: 0.0
190
  - Validation Iou Mountain: 0.0
191
  - Validation Iou Plant: 0.0
@@ -211,7 +211,7 @@ It achieves the following results on the evaluation set:
211
  - Validation Iou Bathtub: 0.0
212
  - Validation Iou Railing: nan
213
  - Validation Iou Cushion: nan
214
- - Validation Iou Base: 0.0
215
  - Validation Iou Box: 0.0
216
  - Validation Iou Column: 0.0
217
  - Validation Iou Signboard: nan
@@ -242,7 +242,7 @@ It achieves the following results on the evaluation set:
242
  - Validation Iou Hill: nan
243
  - Validation Iou Bench: 0.0
244
  - Validation Iou Countertop: nan
245
- - Validation Iou Stove: 0.0
246
  - Validation Iou Palm: nan
247
  - Validation Iou Kitchen island: nan
248
  - Validation Iou Computer: nan
@@ -253,10 +253,10 @@ It achieves the following results on the evaluation set:
253
  - Validation Iou Hovel: nan
254
  - Validation Iou Bus: nan
255
  - Validation Iou Towel: nan
256
- - Validation Iou Light: 0.0
257
  - Validation Iou Truck: 0.0
258
- - Validation Iou Tower: nan
259
- - Validation Iou Chandelier: nan
260
  - Validation Iou Awning: nan
261
  - Validation Iou Streetlight: nan
262
  - Validation Iou Booth: nan
@@ -264,7 +264,7 @@ It achieves the following results on the evaluation set:
264
  - Validation Iou Airplane: nan
265
  - Validation Iou Dirt track: 0.0
266
  - Validation Iou Apparel: nan
267
- - Validation Iou Pole: nan
268
  - Validation Iou Land: 0.0
269
  - Validation Iou Bannister: nan
270
  - Validation Iou Escalator: nan
@@ -283,10 +283,10 @@ It achieves the following results on the evaluation set:
283
  - Validation Iou Swimming pool: nan
284
  - Validation Iou Stool: nan
285
  - Validation Iou Barrel: 0.0
286
- - Validation Iou Basket: nan
287
  - Validation Iou Waterfall: nan
288
  - Validation Iou Tent: nan
289
- - Validation Iou Bag: 0.0
290
  - Validation Iou Minibike: nan
291
  - Validation Iou Cradle: nan
292
  - Validation Iou Oven: nan
@@ -311,17 +311,17 @@ It achieves the following results on the evaluation set:
311
  - Validation Iou Tray: nan
312
  - Validation Iou Ashcan: nan
313
  - Validation Iou Fan: nan
314
- - Validation Iou Pier: nan
315
  - Validation Iou Crt screen: nan
316
- - Validation Iou Plate: nan
317
- - Validation Iou Monitor: 0.0
318
  - Validation Iou Bulletin board: nan
319
  - Validation Iou Shower: nan
320
  - Validation Iou Radiator: nan
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
- - Epoch: 3
325
 
326
  ## Model description
327
 
@@ -351,6 +351,7 @@ The following hyperparameters were used during training:
351
  | 5.0094 | 4.9046 | 0.0082 | 0.0404 | 0.1316 | 0.0 | 0.7150 | 0.0 | 0.0016 | 0.3424 | 0.0 | 0.2131 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.1025 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.1363 | 0.0 | 0.0016 | 0.1309 | 0.0 | 0.1494 | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0011 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 1 |
352
  | 4.8196 | 4.8159 | 0.0071 | 0.0488 | 0.0515 | 0.0 | 0.0732 | 0.0 | 0.1933 | 0.3933 | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0516 | 0.0 | 0.1283 | 0.1378 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0037 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 2 |
353
  | 4.6097 | 4.7010 | 0.0123 | 0.0517 | 0.1522 | 0.0186 | 0.6439 | 0.0 | 0.0180 | 0.5476 | 0.0002 | 0.3980 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.1322 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0176 | 0.1352 | 0.0 | 0.0171 | 0.1498 | 0.0002 | 0.2075 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0256 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 3 |
 
354
 
355
 
356
  ### Framework versions
 
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
+ - Train Loss: 4.4996
20
+ - Validation Loss: 4.5281
21
+ - Validation Mean Iou: 0.0096
22
+ - Validation Mean Accuracy: 0.0470
23
+ - Validation Overall Accuracy: 0.0882
24
+ - Validation Accuracy Wall: 0.0141
25
+ - Validation Accuracy Building: 0.0932
26
+ - Validation Accuracy Sky: 0.5134
27
+ - Validation Accuracy Floor: 0.3767
28
+ - Validation Accuracy Tree: 0.5666
29
+ - Validation Accuracy Ceiling: 0.0324
30
+ - Validation Accuracy Road: 0.0
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
 
35
  - Validation Accuracy Sidewalk: 0.0
36
  - Validation Accuracy Person: nan
37
  - Validation Accuracy Earth: 0.0
38
+ - Validation Accuracy Door: 0.0
39
  - Validation Accuracy Table: 0.0
40
  - Validation Accuracy Mountain: 0.0
41
  - Validation Accuracy Plant: 0.0
 
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
+ - Validation Iou Wall: 0.0137
175
+ - Validation Iou Building: 0.0610
176
+ - Validation Iou Sky: 0.0016
177
+ - Validation Iou Floor: 0.2003
178
+ - Validation Iou Tree: 0.1466
179
+ - Validation Iou Ceiling: 0.0278
180
+ - Validation Iou Road: 0.0
181
+ - Validation Iou Bed : nan
182
  - Validation Iou Windowpane: nan
183
+ - Validation Iou Grass: 0.0
184
  - Validation Iou Cabinet: 0.0
185
  - Validation Iou Sidewalk: 0.0
186
+ - Validation Iou Person: 0.0
187
  - Validation Iou Earth: 0.0
188
+ - Validation Iou Door: 0.0
189
  - Validation Iou Table: 0.0
190
  - Validation Iou Mountain: 0.0
191
  - Validation Iou Plant: 0.0
 
211
  - Validation Iou Bathtub: 0.0
212
  - Validation Iou Railing: nan
213
  - Validation Iou Cushion: nan
214
+ - Validation Iou Base: nan
215
  - Validation Iou Box: 0.0
216
  - Validation Iou Column: 0.0
217
  - Validation Iou Signboard: nan
 
242
  - Validation Iou Hill: nan
243
  - Validation Iou Bench: 0.0
244
  - Validation Iou Countertop: nan
245
+ - Validation Iou Stove: nan
246
  - Validation Iou Palm: nan
247
  - Validation Iou Kitchen island: nan
248
  - Validation Iou Computer: nan
 
253
  - Validation Iou Hovel: nan
254
  - Validation Iou Bus: nan
255
  - Validation Iou Towel: nan
256
+ - Validation Iou Light: nan
257
  - Validation Iou Truck: 0.0
258
+ - Validation Iou Tower: 0.0
259
+ - Validation Iou Chandelier: 0.0
260
  - Validation Iou Awning: nan
261
  - Validation Iou Streetlight: nan
262
  - Validation Iou Booth: nan
 
264
  - Validation Iou Airplane: nan
265
  - Validation Iou Dirt track: 0.0
266
  - Validation Iou Apparel: nan
267
+ - Validation Iou Pole: 0.0
268
  - Validation Iou Land: 0.0
269
  - Validation Iou Bannister: nan
270
  - Validation Iou Escalator: nan
 
283
  - Validation Iou Swimming pool: nan
284
  - Validation Iou Stool: nan
285
  - Validation Iou Barrel: 0.0
286
+ - Validation Iou Basket: 0.0
287
  - Validation Iou Waterfall: nan
288
  - Validation Iou Tent: nan
289
+ - Validation Iou Bag: nan
290
  - Validation Iou Minibike: nan
291
  - Validation Iou Cradle: nan
292
  - Validation Iou Oven: nan
 
311
  - Validation Iou Tray: nan
312
  - Validation Iou Ashcan: nan
313
  - Validation Iou Fan: nan
314
+ - Validation Iou Pier: 0.0
315
  - Validation Iou Crt screen: nan
316
+ - Validation Iou Plate: 0.0
317
+ - Validation Iou Monitor: nan
318
  - Validation Iou Bulletin board: nan
319
  - Validation Iou Shower: nan
320
  - Validation Iou Radiator: nan
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
+ - Epoch: 4
325
 
326
  ## Model description
327
 
 
351
  | 5.0094 | 4.9046 | 0.0082 | 0.0404 | 0.1316 | 0.0 | 0.7150 | 0.0 | 0.0016 | 0.3424 | 0.0 | 0.2131 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.1025 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.1363 | 0.0 | 0.0016 | 0.1309 | 0.0 | 0.1494 | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0011 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 1 |
352
  | 4.8196 | 4.8159 | 0.0071 | 0.0488 | 0.0515 | 0.0 | 0.0732 | 0.0 | 0.1933 | 0.3933 | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0516 | 0.0 | 0.1283 | 0.1378 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0037 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 2 |
353
  | 4.6097 | 4.7010 | 0.0123 | 0.0517 | 0.1522 | 0.0186 | 0.6439 | 0.0 | 0.0180 | 0.5476 | 0.0002 | 0.3980 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.1322 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0176 | 0.1352 | 0.0 | 0.0171 | 0.1498 | 0.0002 | 0.2075 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0256 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 3 |
354
+ | 4.4996 | 4.5281 | 0.0096 | 0.0470 | 0.0882 | 0.0141 | 0.0932 | 0.5134 | 0.3767 | 0.5666 | 0.0324 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0137 | 0.0610 | 0.0016 | 0.2003 | 0.1466 | 0.0278 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 4 |
355
 
356
 
357
  ### Framework versions
tf_model.h5 CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:1ed63d4c812313aed4d4401e63adc042678f04762c40c151b027e95d2c0b11a8
3
  size 15285696
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:30b2ad1a09b90913431fa1aaf3c7aa1b849364cbcfd7855606c164e26e4e9563
3
  size 15285696