jt5d commited on
Commit
9d14065
·
1 Parent(s): e59d0d9

Training in progress epoch 33

Browse files
Files changed (2) hide show
  1. README.md +18 -17
  2. tf_model.h5 +1 -1
README.md CHANGED
@@ -16,18 +16,18 @@ probably proofread and complete it, then remove this comment. -->
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
- - Train Loss: 3.1665
20
- - Validation Loss: 3.7672
21
- - Validation Mean Iou: 0.0170
22
- - Validation Mean Accuracy: 0.0587
23
- - Validation Overall Accuracy: 0.1943
24
- - Validation Accuracy Wall: 0.0976
25
- - Validation Accuracy Building: 0.5743
26
  - Validation Accuracy Sky: 0.0
27
- - Validation Accuracy Floor: 0.6453
28
- - Validation Accuracy Tree: 0.6773
29
  - Validation Accuracy Ceiling: 0.0
30
- - Validation Accuracy Road: 0.0007
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
@@ -171,14 +171,14 @@ It achieves the following results on the evaluation set:
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
- - Validation Iou Wall: 0.0839
175
- - Validation Iou Building: 0.1504
176
  - Validation Iou Sky: 0.0
177
- - Validation Iou Floor: 0.2583
178
- - Validation Iou Tree: 0.1029
179
  - Validation Iou Ceiling: 0.0
180
- - Validation Iou Road: 0.0007
181
- - Validation Iou Bed : 0.0
182
  - Validation Iou Windowpane: nan
183
  - Validation Iou Grass: nan
184
  - Validation Iou Cabinet: 0.0
@@ -321,7 +321,7 @@ It achieves the following results on the evaluation set:
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
- - Epoch: 32
325
 
326
  ## Model description
327
 
@@ -380,6 +380,7 @@ The following hyperparameters were used during training:
380
  | 3.1030 | 3.7534 | 0.0174 | 0.0582 | 0.1942 | 0.0932 | 0.6082 | 0.0 | 0.6153 | 0.6613 | 0.0 | 0.0000 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0685 | 0.1506 | 0.0 | 0.2580 | 0.1155 | 0.0 | 0.0000 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 30 |
381
  | 3.1779 | 3.7615 | 0.0167 | 0.0583 | 0.1933 | 0.0562 | 0.5826 | 0.0 | 0.6517 | 0.6921 | 0.0 | 0.0011 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0512 | 0.1516 | 0.0 | 0.2621 | 0.1031 | 0.0 | 0.0011 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 31 |
382
  | 3.1665 | 3.7672 | 0.0170 | 0.0587 | 0.1943 | 0.0976 | 0.5743 | 0.0 | 0.6453 | 0.6773 | 0.0 | 0.0007 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0839 | 0.1504 | 0.0 | 0.2583 | 0.1029 | 0.0 | 0.0007 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 32 |
 
383
 
384
 
385
  ### Framework versions
 
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
+ - Train Loss: 3.1226
20
+ - Validation Loss: 3.7160
21
+ - Validation Mean Iou: 0.0190
22
+ - Validation Mean Accuracy: 0.0598
23
+ - Validation Overall Accuracy: 0.1974
24
+ - Validation Accuracy Wall: 0.0973
25
+ - Validation Accuracy Building: 0.5741
26
  - Validation Accuracy Sky: 0.0
27
+ - Validation Accuracy Floor: 0.6288
28
+ - Validation Accuracy Tree: 0.6740
29
  - Validation Accuracy Ceiling: 0.0
30
+ - Validation Accuracy Road: 0.0594
31
  - Validation Accuracy Bed : nan
32
  - Validation Accuracy Windowpane: nan
33
  - Validation Accuracy Grass: nan
 
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
+ - Validation Iou Wall: 0.0658
175
+ - Validation Iou Building: 0.1516
176
  - Validation Iou Sky: 0.0
177
+ - Validation Iou Floor: 0.2604
178
+ - Validation Iou Tree: 0.1143
179
  - Validation Iou Ceiling: 0.0
180
+ - Validation Iou Road: 0.0528
181
+ - Validation Iou Bed : nan
182
  - Validation Iou Windowpane: nan
183
  - Validation Iou Grass: nan
184
  - Validation Iou Cabinet: 0.0
 
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
+ - Epoch: 33
325
 
326
  ## Model description
327
 
 
380
  | 3.1030 | 3.7534 | 0.0174 | 0.0582 | 0.1942 | 0.0932 | 0.6082 | 0.0 | 0.6153 | 0.6613 | 0.0 | 0.0000 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0685 | 0.1506 | 0.0 | 0.2580 | 0.1155 | 0.0 | 0.0000 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 30 |
381
  | 3.1779 | 3.7615 | 0.0167 | 0.0583 | 0.1933 | 0.0562 | 0.5826 | 0.0 | 0.6517 | 0.6921 | 0.0 | 0.0011 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0512 | 0.1516 | 0.0 | 0.2621 | 0.1031 | 0.0 | 0.0011 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 31 |
382
  | 3.1665 | 3.7672 | 0.0170 | 0.0587 | 0.1943 | 0.0976 | 0.5743 | 0.0 | 0.6453 | 0.6773 | 0.0 | 0.0007 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0839 | 0.1504 | 0.0 | 0.2583 | 0.1029 | 0.0 | 0.0007 | 0.0 | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 32 |
383
+ | 3.1226 | 3.7160 | 0.0190 | 0.0598 | 0.1974 | 0.0973 | 0.5741 | 0.0 | 0.6288 | 0.6740 | 0.0 | 0.0594 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0658 | 0.1516 | 0.0 | 0.2604 | 0.1143 | 0.0 | 0.0528 | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 33 |
384
 
385
 
386
  ### Framework versions
tf_model.h5 CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:49f4befb0d9e483c323674f59da6af890177d5721dea39338463eb431bef6996
3
  size 15285696
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:29c4404b99ffd1384f2109cee615a4fff8b9df46bf6f269eb2706746d7025ed6
3
  size 15285696