Upload README.md with huggingface_hub
Browse files
README.md
CHANGED
|
@@ -1,26 +1,144 @@
|
|
| 1 |
-
#
|
| 2 |
-
|
| 3 |
-
|
| 4 |
-
|
| 5 |
-
|
| 6 |
-
|
| 7 |
-
|
| 8 |
-
|
| 9 |
-
|
| 10 |
-
|
| 11 |
-
|
| 12 |
-
|
| 13 |
-
|
| 14 |
-
|
| 15 |
-
|
| 16 |
-
|
| 17 |
-
|
| 18 |
-
|
| 19 |
-
|
| 20 |
-
##
|
| 21 |
-
|
| 22 |
-
|
| 23 |
-
|
| 24 |
-
|
| 25 |
-
|
| 26 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# nc_ner_bert_model
|
| 2 |
+
|
| 3 |
+
This model is a fine-tuned version of bert-base-german-cased on the german-ler dataset.
|
| 4 |
+
It achieves the following results on the evaluation set:
|
| 5 |
+
|
| 6 |
+
Loss: 0.010139505378901958
|
| 7 |
+
F1: 0.9631078814980436
|
| 8 |
+
Precision: 0.9545706371191136
|
| 9 |
+
Recall: 0.9717992103778906
|
| 10 |
+
|
| 11 |
+
## Model description
|
| 12 |
+
More information needed
|
| 13 |
+
|
| 14 |
+
## Intended uses & limitations
|
| 15 |
+
More information needed
|
| 16 |
+
|
| 17 |
+
## Training and evaluation data
|
| 18 |
+
More information needed
|
| 19 |
+
|
| 20 |
+
## Training procedure
|
| 21 |
+
|
| 22 |
+
### Training hyperparameters
|
| 23 |
+
The following hyperparameters were used during training:
|
| 24 |
+
|
| 25 |
+
- learning_rate: 2e-05
|
| 26 |
+
- train_batch_size: 32
|
| 27 |
+
- eval_batch_size: 32
|
| 28 |
+
- num_epochs: 3
|
| 29 |
+
|
| 30 |
+
### Training results
|
| 31 |
+
|
| 32 |
+
| loss | epoch | step | eval_loss | eval_f1 | eval_precision | eval_recall |
|
| 33 |
+
| --- | --- | --- | --- | --- | --- | --- |
|
| 34 |
+
| 0.7373 | 0.029958058717795086 | 50 | nan | nan | nan | nan |
|
| 35 |
+
| 0.1794 | 0.05991611743559017 | 100 | nan | nan | nan | nan |
|
| 36 |
+
| 0.1247 | 0.08987417615338526 | 150 | nan | nan | nan | nan |
|
| 37 |
+
| 0.0833 | 0.11983223487118035 | 200 | nan | nan | nan | nan |
|
| 38 |
+
| 0.0756 | 0.14979029358897544 | 250 | nan | nan | nan | nan |
|
| 39 |
+
| 0.0647 | 0.17974835230677053 | 300 | nan | nan | nan | nan |
|
| 40 |
+
| 0.0527 | 0.2097064110245656 | 350 | nan | nan | nan | nan |
|
| 41 |
+
| 0.0474 | 0.2396644697423607 | 400 | nan | nan | nan | nan |
|
| 42 |
+
| 0.0415 | 0.2696225284601558 | 450 | nan | nan | nan | nan |
|
| 43 |
+
| 0.0448 | 0.2995805871779509 | 500 | nan | nan | nan | nan |
|
| 44 |
+
| 0.0489 | 0.32953864589574594 | 550 | nan | nan | nan | nan |
|
| 45 |
+
| 0.0333 | 0.35949670461354105 | 600 | nan | nan | nan | nan |
|
| 46 |
+
| 0.0454 | 0.3894547633313361 | 650 | nan | nan | nan | nan |
|
| 47 |
+
| 0.0321 | 0.4194128220491312 | 700 | nan | nan | nan | nan |
|
| 48 |
+
| 0.0311 | 0.44937088076692633 | 750 | nan | nan | nan | nan |
|
| 49 |
+
| 0.0346 | 0.4793289394847214 | 800 | nan | nan | nan | nan |
|
| 50 |
+
| 0.0319 | 0.5092869982025164 | 850 | nan | nan | nan | nan |
|
| 51 |
+
| 0.0341 | 0.5392450569203115 | 900 | nan | nan | nan | nan |
|
| 52 |
+
| 0.036 | 0.5692031156381067 | 950 | nan | nan | nan | nan |
|
| 53 |
+
| 0.0308 | 0.5991611743559018 | 1000 | nan | nan | nan | nan |
|
| 54 |
+
| 0.0343 | 0.6291192330736968 | 1050 | nan | nan | nan | nan |
|
| 55 |
+
| 0.0213 | 0.6590772917914919 | 1100 | nan | nan | nan | nan |
|
| 56 |
+
| 0.0235 | 0.689035350509287 | 1150 | nan | nan | nan | nan |
|
| 57 |
+
| 0.0287 | 0.7189934092270821 | 1200 | nan | nan | nan | nan |
|
| 58 |
+
| 0.0387 | 0.7489514679448772 | 1250 | nan | nan | nan | nan |
|
| 59 |
+
| 0.0234 | 0.7789095266626722 | 1300 | nan | nan | nan | nan |
|
| 60 |
+
| 0.0429 | 0.8088675853804673 | 1350 | nan | nan | nan | nan |
|
| 61 |
+
| 0.0283 | 0.8388256440982624 | 1400 | nan | nan | nan | nan |
|
| 62 |
+
| 0.0351 | 0.8687837028160575 | 1450 | nan | nan | nan | nan |
|
| 63 |
+
| 0.0295 | 0.8987417615338527 | 1500 | nan | nan | nan | nan |
|
| 64 |
+
| 0.025 | 0.9286998202516477 | 1550 | nan | nan | nan | nan |
|
| 65 |
+
| 0.0238 | 0.9586578789694428 | 1600 | nan | nan | nan | nan |
|
| 66 |
+
| 0.0238 | 0.9886159376872379 | 1650 | nan | nan | nan | nan |
|
| 67 |
+
| nan | 1.0 | 1669 | 0.027363216504454613 | 0.9016298020954598 | 0.8809478672985782 | 0.9233061792171667 |
|
| 68 |
+
| 0.0185 | 1.0185739964050329 | 1700 | nan | nan | nan | nan |
|
| 69 |
+
| 0.0125 | 1.048532055122828 | 1750 | nan | nan | nan | nan |
|
| 70 |
+
| 0.0129 | 1.078490113840623 | 1800 | nan | nan | nan | nan |
|
| 71 |
+
| 0.0122 | 1.1084481725584183 | 1850 | nan | nan | nan | nan |
|
| 72 |
+
| 0.0122 | 1.1384062312762133 | 1900 | nan | nan | nan | nan |
|
| 73 |
+
| 0.0111 | 1.1683642899940083 | 1950 | nan | nan | nan | nan |
|
| 74 |
+
| 0.0133 | 1.1983223487118035 | 2000 | nan | nan | nan | nan |
|
| 75 |
+
| 0.0095 | 1.2282804074295985 | 2050 | nan | nan | nan | nan |
|
| 76 |
+
| 0.0102 | 1.2582384661473935 | 2100 | nan | nan | nan | nan |
|
| 77 |
+
| 0.0155 | 1.2881965248651888 | 2150 | nan | nan | nan | nan |
|
| 78 |
+
| 0.0137 | 1.3181545835829838 | 2200 | nan | nan | nan | nan |
|
| 79 |
+
| 0.0119 | 1.348112642300779 | 2250 | nan | nan | nan | nan |
|
| 80 |
+
| 0.0156 | 1.378070701018574 | 2300 | nan | nan | nan | nan |
|
| 81 |
+
| 0.0148 | 1.4080287597363692 | 2350 | nan | nan | nan | nan |
|
| 82 |
+
| 0.0136 | 1.4379868184541642 | 2400 | nan | nan | nan | nan |
|
| 83 |
+
| 0.0113 | 1.4679448771719592 | 2450 | nan | nan | nan | nan |
|
| 84 |
+
| 0.0152 | 1.4979029358897544 | 2500 | nan | nan | nan | nan |
|
| 85 |
+
| 0.0124 | 1.5278609946075494 | 2550 | nan | nan | nan | nan |
|
| 86 |
+
| 0.0112 | 1.5578190533253444 | 2600 | nan | nan | nan | nan |
|
| 87 |
+
| 0.0171 | 1.5877771120431396 | 2650 | nan | nan | nan | nan |
|
| 88 |
+
| 0.0118 | 1.6177351707609346 | 2700 | nan | nan | nan | nan |
|
| 89 |
+
| 0.0141 | 1.6476932294787296 | 2750 | nan | nan | nan | nan |
|
| 90 |
+
| 0.011 | 1.6776512881965249 | 2800 | nan | nan | nan | nan |
|
| 91 |
+
| 0.0116 | 1.70760934691432 | 2850 | nan | nan | nan | nan |
|
| 92 |
+
| 0.0136 | 1.737567405632115 | 2900 | nan | nan | nan | nan |
|
| 93 |
+
| 0.0159 | 1.76752546434991 | 2950 | nan | nan | nan | nan |
|
| 94 |
+
| 0.0113 | 1.7974835230677053 | 3000 | nan | nan | nan | nan |
|
| 95 |
+
| 0.0097 | 1.8274415817855003 | 3050 | nan | nan | nan | nan |
|
| 96 |
+
| 0.015 | 1.8573996405032953 | 3100 | nan | nan | nan | nan |
|
| 97 |
+
| 0.0119 | 1.8873576992210905 | 3150 | nan | nan | nan | nan |
|
| 98 |
+
| 0.0111 | 1.9173157579388855 | 3200 | nan | nan | nan | nan |
|
| 99 |
+
| 0.0147 | 1.9472738166566805 | 3250 | nan | nan | nan | nan |
|
| 100 |
+
| 0.0131 | 1.9772318753744758 | 3300 | nan | nan | nan | nan |
|
| 101 |
+
| nan | 2.0 | 3338 | 0.022580385208129883 | 0.9287871407696054 | 0.9111238532110092 | 0.9471488178025035 |
|
| 102 |
+
| 0.0084 | 2.007189934092271 | 3350 | nan | nan | nan | nan |
|
| 103 |
+
| 0.005 | 2.0371479928100658 | 3400 | nan | nan | nan | nan |
|
| 104 |
+
| 0.0055 | 2.067106051527861 | 3450 | nan | nan | nan | nan |
|
| 105 |
+
| 0.0068 | 2.097064110245656 | 3500 | nan | nan | nan | nan |
|
| 106 |
+
| 0.0057 | 2.127022168963451 | 3550 | nan | nan | nan | nan |
|
| 107 |
+
| 0.006 | 2.156980227681246 | 3600 | nan | nan | nan | nan |
|
| 108 |
+
| 0.0039 | 2.1869382863990414 | 3650 | nan | nan | nan | nan |
|
| 109 |
+
| 0.0058 | 2.2168963451168366 | 3700 | nan | nan | nan | nan |
|
| 110 |
+
| 0.0063 | 2.2468544038346314 | 3750 | nan | nan | nan | nan |
|
| 111 |
+
| 0.0059 | 2.2768124625524266 | 3800 | nan | nan | nan | nan |
|
| 112 |
+
| 0.0045 | 2.306770521270222 | 3850 | nan | nan | nan | nan |
|
| 113 |
+
| 0.0062 | 2.3367285799880166 | 3900 | nan | nan | nan | nan |
|
| 114 |
+
| 0.007 | 2.366686638705812 | 3950 | nan | nan | nan | nan |
|
| 115 |
+
| 0.0042 | 2.396644697423607 | 4000 | nan | nan | nan | nan |
|
| 116 |
+
| 0.0058 | 2.426602756141402 | 4050 | nan | nan | nan | nan |
|
| 117 |
+
| 0.0068 | 2.456560814859197 | 4100 | nan | nan | nan | nan |
|
| 118 |
+
| 0.005 | 2.4865188735769923 | 4150 | nan | nan | nan | nan |
|
| 119 |
+
| 0.0057 | 2.516476932294787 | 4200 | nan | nan | nan | nan |
|
| 120 |
+
| 0.0084 | 2.5464349910125823 | 4250 | nan | nan | nan | nan |
|
| 121 |
+
| 0.0079 | 2.5763930497303775 | 4300 | nan | nan | nan | nan |
|
| 122 |
+
| 0.0061 | 2.6063511084481723 | 4350 | nan | nan | nan | nan |
|
| 123 |
+
| 0.0066 | 2.6363091671659675 | 4400 | nan | nan | nan | nan |
|
| 124 |
+
| 0.0065 | 2.6662672258837627 | 4450 | nan | nan | nan | nan |
|
| 125 |
+
| 0.0048 | 2.696225284601558 | 4500 | nan | nan | nan | nan |
|
| 126 |
+
| 0.0047 | 2.7261833433193527 | 4550 | nan | nan | nan | nan |
|
| 127 |
+
| 0.005 | 2.756141402037148 | 4600 | nan | nan | nan | nan |
|
| 128 |
+
| 0.0042 | 2.786099460754943 | 4650 | nan | nan | nan | nan |
|
| 129 |
+
| 0.0046 | 2.8160575194727384 | 4700 | nan | nan | nan | nan |
|
| 130 |
+
| 0.0041 | 2.846015578190533 | 4750 | nan | nan | nan | nan |
|
| 131 |
+
| 0.0046 | 2.8759736369083284 | 4800 | nan | nan | nan | nan |
|
| 132 |
+
| 0.004 | 2.9059316956261236 | 4850 | nan | nan | nan | nan |
|
| 133 |
+
| 0.0046 | 2.9358897543439184 | 4900 | nan | nan | nan | nan |
|
| 134 |
+
| 0.0049 | 2.9658478130617136 | 4950 | nan | nan | nan | nan |
|
| 135 |
+
| 0.004 | 2.995805871779509 | 5000 | nan | nan | nan | nan |
|
| 136 |
+
| nan | 3.0 | 5007 | 0.023095035925507545 | 0.9380756417793455 | 0.9253817900637927 | 0.9511225909000596 |
|
| 137 |
+
| nan | 3.0 | 5007 | nan | nan | nan | nan |
|
| 138 |
+
|
| 139 |
+
|
| 140 |
+
## Framework versions
|
| 141 |
+
- Transformers: 2.3.0
|
| 142 |
+
- Pytorch: (siehe Umgebung)
|
| 143 |
+
- Datasets: (siehe Umgebung)
|
| 144 |
+
- Tokenizers: (siehe Umgebung)
|