jt5d commited on
Commit
159cf37
·
1 Parent(s): 1d3a55b

Training in progress epoch 5

Browse files
Files changed (2) hide show
  1. README.md +35 -34
  2. tf_model.h5 +1 -1
README.md CHANGED
@@ -16,18 +16,18 @@ probably proofread and complete it, then remove this comment. -->
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
- - Train Loss: 4.4996
20
- - Validation Loss: 4.5281
21
- - Validation Mean Iou: 0.0096
22
- - Validation Mean Accuracy: 0.0470
23
- - Validation Overall Accuracy: 0.0882
24
- - Validation Accuracy Wall: 0.0141
25
- - Validation Accuracy Building: 0.0932
26
- - Validation Accuracy Sky: 0.5134
27
- - Validation Accuracy Floor: 0.3767
28
- - Validation Accuracy Tree: 0.5666
29
- - Validation Accuracy Ceiling: 0.0324
30
- - Validation Accuracy Road: 0.0
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
@@ -36,7 +36,7 @@ It achieves the following results on the evaluation set:
36
  - Validation Accuracy Person: nan
37
  - Validation Accuracy Earth: 0.0
38
  - Validation Accuracy Door: 0.0
39
- - Validation Accuracy Table: 0.0
40
  - Validation Accuracy Mountain: 0.0
41
  - Validation Accuracy Plant: 0.0
42
  - Validation Accuracy Curtain: 0.0
@@ -171,14 +171,14 @@ It achieves the following results on the evaluation set:
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
- - Validation Iou Wall: 0.0137
175
- - Validation Iou Building: 0.0610
176
- - Validation Iou Sky: 0.0016
177
- - Validation Iou Floor: 0.2003
178
- - Validation Iou Tree: 0.1466
179
- - Validation Iou Ceiling: 0.0278
180
- - Validation Iou Road: 0.0
181
- - Validation Iou Bed : nan
182
  - Validation Iou Windowpane: nan
183
  - Validation Iou Grass: 0.0
184
  - Validation Iou Cabinet: 0.0
@@ -186,7 +186,7 @@ It achieves the following results on the evaluation set:
186
  - Validation Iou Person: 0.0
187
  - Validation Iou Earth: 0.0
188
  - Validation Iou Door: 0.0
189
- - Validation Iou Table: 0.0
190
  - Validation Iou Mountain: 0.0
191
  - Validation Iou Plant: 0.0
192
  - Validation Iou Curtain: 0.0
@@ -195,16 +195,16 @@ It achieves the following results on the evaluation set:
195
  - Validation Iou Water: nan
196
  - Validation Iou Painting: nan
197
  - Validation Iou Sofa: 0.0
198
- - Validation Iou Shelf: nan
199
  - Validation Iou House: 0.0
200
  - Validation Iou Sea: 0.0
201
- - Validation Iou Mirror: 0.0
202
  - Validation Iou Rug: nan
203
  - Validation Iou Field: nan
204
  - Validation Iou Armchair: 0.0
205
  - Validation Iou Seat: 0.0
206
  - Validation Iou Fence: nan
207
- - Validation Iou Desk: nan
208
  - Validation Iou Rock: 0.0
209
  - Validation Iou Wardrobe: nan
210
  - Validation Iou Lamp: nan
@@ -216,7 +216,7 @@ It achieves the following results on the evaluation set:
216
  - Validation Iou Column: 0.0
217
  - Validation Iou Signboard: nan
218
  - Validation Iou Chest of drawers: nan
219
- - Validation Iou Counter: 0.0
220
  - Validation Iou Sand: nan
221
  - Validation Iou Sink: nan
222
  - Validation Iou Skyscraper: nan
@@ -255,7 +255,7 @@ It achieves the following results on the evaluation set:
255
  - Validation Iou Towel: nan
256
  - Validation Iou Light: nan
257
  - Validation Iou Truck: 0.0
258
- - Validation Iou Tower: 0.0
259
  - Validation Iou Chandelier: 0.0
260
  - Validation Iou Awning: nan
261
  - Validation Iou Streetlight: nan
@@ -264,7 +264,7 @@ It achieves the following results on the evaluation set:
264
  - Validation Iou Airplane: nan
265
  - Validation Iou Dirt track: 0.0
266
  - Validation Iou Apparel: nan
267
- - Validation Iou Pole: 0.0
268
  - Validation Iou Land: 0.0
269
  - Validation Iou Bannister: nan
270
  - Validation Iou Escalator: nan
@@ -282,11 +282,11 @@ It achieves the following results on the evaluation set:
282
  - Validation Iou Plaything: nan
283
  - Validation Iou Swimming pool: nan
284
  - Validation Iou Stool: nan
285
- - Validation Iou Barrel: 0.0
286
  - Validation Iou Basket: 0.0
287
  - Validation Iou Waterfall: nan
288
  - Validation Iou Tent: nan
289
- - Validation Iou Bag: nan
290
  - Validation Iou Minibike: nan
291
  - Validation Iou Cradle: nan
292
  - Validation Iou Oven: nan
@@ -304,7 +304,7 @@ It achieves the following results on the evaluation set:
304
  - Validation Iou Screen: nan
305
  - Validation Iou Blanket: nan
306
  - Validation Iou Sculpture: nan
307
- - Validation Iou Hood: nan
308
  - Validation Iou Sconce: nan
309
  - Validation Iou Vase: nan
310
  - Validation Iou Traffic light: 0.0
@@ -313,15 +313,15 @@ It achieves the following results on the evaluation set:
313
  - Validation Iou Fan: nan
314
  - Validation Iou Pier: 0.0
315
  - Validation Iou Crt screen: nan
316
- - Validation Iou Plate: 0.0
317
- - Validation Iou Monitor: nan
318
  - Validation Iou Bulletin board: nan
319
  - Validation Iou Shower: nan
320
  - Validation Iou Radiator: nan
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
- - Epoch: 4
325
 
326
  ## Model description
327
 
@@ -352,6 +352,7 @@ The following hyperparameters were used during training:
352
  | 4.8196 | 4.8159 | 0.0071 | 0.0488 | 0.0515 | 0.0 | 0.0732 | 0.0 | 0.1933 | 0.3933 | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0516 | 0.0 | 0.1283 | 0.1378 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0037 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 2 |
353
  | 4.6097 | 4.7010 | 0.0123 | 0.0517 | 0.1522 | 0.0186 | 0.6439 | 0.0 | 0.0180 | 0.5476 | 0.0002 | 0.3980 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.1322 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0176 | 0.1352 | 0.0 | 0.0171 | 0.1498 | 0.0002 | 0.2075 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0256 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 3 |
354
  | 4.4996 | 4.5281 | 0.0096 | 0.0470 | 0.0882 | 0.0141 | 0.0932 | 0.5134 | 0.3767 | 0.5666 | 0.0324 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0137 | 0.0610 | 0.0016 | 0.2003 | 0.1466 | 0.0278 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 4 |
 
355
 
356
 
357
  ### Framework versions
 
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
+ - Train Loss: 4.3523
20
+ - Validation Loss: 4.7528
21
+ - Validation Mean Iou: 0.0098
22
+ - Validation Mean Accuracy: 0.0559
23
+ - Validation Overall Accuracy: 0.0721
24
+ - Validation Accuracy Wall: 0.0143
25
+ - Validation Accuracy Building: 0.0016
26
+ - Validation Accuracy Sky: 0.0
27
+ - Validation Accuracy Floor: 0.3102
28
+ - Validation Accuracy Tree: 0.4217
29
+ - Validation Accuracy Ceiling: 0.0
30
+ - Validation Accuracy Road: 0.1516
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
 
36
  - Validation Accuracy Person: nan
37
  - Validation Accuracy Earth: 0.0
38
  - Validation Accuracy Door: 0.0
39
+ - Validation Accuracy Table: 1.0
40
  - Validation Accuracy Mountain: 0.0
41
  - Validation Accuracy Plant: 0.0
42
  - Validation Accuracy Curtain: 0.0
 
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
+ - Validation Iou Wall: 0.0139
175
+ - Validation Iou Building: 0.0015
176
+ - Validation Iou Sky: 0.0
177
+ - Validation Iou Floor: 0.1836
178
+ - Validation Iou Tree: 0.1395
179
+ - Validation Iou Ceiling: 0.0
180
+ - Validation Iou Road: 0.1156
181
+ - Validation Iou Bed : 0.0
182
  - Validation Iou Windowpane: nan
183
  - Validation Iou Grass: 0.0
184
  - Validation Iou Cabinet: 0.0
 
186
  - Validation Iou Person: 0.0
187
  - Validation Iou Earth: 0.0
188
  - Validation Iou Door: 0.0
189
+ - Validation Iou Table: 0.0047
190
  - Validation Iou Mountain: 0.0
191
  - Validation Iou Plant: 0.0
192
  - Validation Iou Curtain: 0.0
 
195
  - Validation Iou Water: nan
196
  - Validation Iou Painting: nan
197
  - Validation Iou Sofa: 0.0
198
+ - Validation Iou Shelf: 0.0
199
  - Validation Iou House: 0.0
200
  - Validation Iou Sea: 0.0
201
+ - Validation Iou Mirror: nan
202
  - Validation Iou Rug: nan
203
  - Validation Iou Field: nan
204
  - Validation Iou Armchair: 0.0
205
  - Validation Iou Seat: 0.0
206
  - Validation Iou Fence: nan
207
+ - Validation Iou Desk: 0.0
208
  - Validation Iou Rock: 0.0
209
  - Validation Iou Wardrobe: nan
210
  - Validation Iou Lamp: nan
 
216
  - Validation Iou Column: 0.0
217
  - Validation Iou Signboard: nan
218
  - Validation Iou Chest of drawers: nan
219
+ - Validation Iou Counter: nan
220
  - Validation Iou Sand: nan
221
  - Validation Iou Sink: nan
222
  - Validation Iou Skyscraper: nan
 
255
  - Validation Iou Towel: nan
256
  - Validation Iou Light: nan
257
  - Validation Iou Truck: 0.0
258
+ - Validation Iou Tower: nan
259
  - Validation Iou Chandelier: 0.0
260
  - Validation Iou Awning: nan
261
  - Validation Iou Streetlight: nan
 
264
  - Validation Iou Airplane: nan
265
  - Validation Iou Dirt track: 0.0
266
  - Validation Iou Apparel: nan
267
+ - Validation Iou Pole: nan
268
  - Validation Iou Land: 0.0
269
  - Validation Iou Bannister: nan
270
  - Validation Iou Escalator: nan
 
282
  - Validation Iou Plaything: nan
283
  - Validation Iou Swimming pool: nan
284
  - Validation Iou Stool: nan
285
+ - Validation Iou Barrel: nan
286
  - Validation Iou Basket: 0.0
287
  - Validation Iou Waterfall: nan
288
  - Validation Iou Tent: nan
289
+ - Validation Iou Bag: 0.0
290
  - Validation Iou Minibike: nan
291
  - Validation Iou Cradle: nan
292
  - Validation Iou Oven: nan
 
304
  - Validation Iou Screen: nan
305
  - Validation Iou Blanket: nan
306
  - Validation Iou Sculpture: nan
307
+ - Validation Iou Hood: 0.0
308
  - Validation Iou Sconce: nan
309
  - Validation Iou Vase: nan
310
  - Validation Iou Traffic light: 0.0
 
313
  - Validation Iou Fan: nan
314
  - Validation Iou Pier: 0.0
315
  - Validation Iou Crt screen: nan
316
+ - Validation Iou Plate: nan
317
+ - Validation Iou Monitor: 0.0
318
  - Validation Iou Bulletin board: nan
319
  - Validation Iou Shower: nan
320
  - Validation Iou Radiator: nan
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
+ - Epoch: 5
325
 
326
  ## Model description
327
 
 
352
  | 4.8196 | 4.8159 | 0.0071 | 0.0488 | 0.0515 | 0.0 | 0.0732 | 0.0 | 0.1933 | 0.3933 | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0516 | 0.0 | 0.1283 | 0.1378 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0037 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 2 |
353
  | 4.6097 | 4.7010 | 0.0123 | 0.0517 | 0.1522 | 0.0186 | 0.6439 | 0.0 | 0.0180 | 0.5476 | 0.0002 | 0.3980 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.1322 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0176 | 0.1352 | 0.0 | 0.0171 | 0.1498 | 0.0002 | 0.2075 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0256 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 3 |
354
  | 4.4996 | 4.5281 | 0.0096 | 0.0470 | 0.0882 | 0.0141 | 0.0932 | 0.5134 | 0.3767 | 0.5666 | 0.0324 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0137 | 0.0610 | 0.0016 | 0.2003 | 0.1466 | 0.0278 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 4 |
355
+ | 4.3523 | 4.7528 | 0.0098 | 0.0559 | 0.0721 | 0.0143 | 0.0016 | 0.0 | 0.3102 | 0.4217 | 0.0 | 0.1516 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0139 | 0.0015 | 0.0 | 0.1836 | 0.1395 | 0.0 | 0.1156 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0047 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 5 |
356
 
357
 
358
  ### Framework versions
tf_model.h5 CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:30b2ad1a09b90913431fa1aaf3c7aa1b849364cbcfd7855606c164e26e4e9563
3
  size 15285696
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c19563a19b790f6e3502512dbe3eaa728d4eb7439e90effe3f0d72bfcdbe3410
3
  size 15285696