YAML Metadata
Warning:
empty or missing yaml metadata in repo card
(https://huggingface.co/docs/hub/model-cards#model-card-metadata)
nc_ner_bert_model
This model is a fine-tuned version of bert-base-german-cased on the german-ler dataset.
It achieves the following results on the evaluation set:
Loss: 0.010139505378901958 F1: 0.9631078814980436 Precision: 0.9545706371191136 Recall: 0.9717992103778906
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 32
- eval_batch_size: 32
- num_epochs: 3
Training results
| loss | epoch | step | eval_loss | eval_f1 | eval_precision | eval_recall |
|---|---|---|---|---|---|---|
| 0.7373 | 0.029958058717795086 | 50 | nan | nan | nan | nan |
| 0.1794 | 0.05991611743559017 | 100 | nan | nan | nan | nan |
| 0.1247 | 0.08987417615338526 | 150 | nan | nan | nan | nan |
| 0.0833 | 0.11983223487118035 | 200 | nan | nan | nan | nan |
| 0.0756 | 0.14979029358897544 | 250 | nan | nan | nan | nan |
| 0.0647 | 0.17974835230677053 | 300 | nan | nan | nan | nan |
| 0.0527 | 0.2097064110245656 | 350 | nan | nan | nan | nan |
| 0.0474 | 0.2396644697423607 | 400 | nan | nan | nan | nan |
| 0.0415 | 0.2696225284601558 | 450 | nan | nan | nan | nan |
| 0.0448 | 0.2995805871779509 | 500 | nan | nan | nan | nan |
| 0.0489 | 0.32953864589574594 | 550 | nan | nan | nan | nan |
| 0.0333 | 0.35949670461354105 | 600 | nan | nan | nan | nan |
| 0.0454 | 0.3894547633313361 | 650 | nan | nan | nan | nan |
| 0.0321 | 0.4194128220491312 | 700 | nan | nan | nan | nan |
| 0.0311 | 0.44937088076692633 | 750 | nan | nan | nan | nan |
| 0.0346 | 0.4793289394847214 | 800 | nan | nan | nan | nan |
| 0.0319 | 0.5092869982025164 | 850 | nan | nan | nan | nan |
| 0.0341 | 0.5392450569203115 | 900 | nan | nan | nan | nan |
| 0.036 | 0.5692031156381067 | 950 | nan | nan | nan | nan |
| 0.0308 | 0.5991611743559018 | 1000 | nan | nan | nan | nan |
| 0.0343 | 0.6291192330736968 | 1050 | nan | nan | nan | nan |
| 0.0213 | 0.6590772917914919 | 1100 | nan | nan | nan | nan |
| 0.0235 | 0.689035350509287 | 1150 | nan | nan | nan | nan |
| 0.0287 | 0.7189934092270821 | 1200 | nan | nan | nan | nan |
| 0.0387 | 0.7489514679448772 | 1250 | nan | nan | nan | nan |
| 0.0234 | 0.7789095266626722 | 1300 | nan | nan | nan | nan |
| 0.0429 | 0.8088675853804673 | 1350 | nan | nan | nan | nan |
| 0.0283 | 0.8388256440982624 | 1400 | nan | nan | nan | nan |
| 0.0351 | 0.8687837028160575 | 1450 | nan | nan | nan | nan |
| 0.0295 | 0.8987417615338527 | 1500 | nan | nan | nan | nan |
| 0.025 | 0.9286998202516477 | 1550 | nan | nan | nan | nan |
| 0.0238 | 0.9586578789694428 | 1600 | nan | nan | nan | nan |
| 0.0238 | 0.9886159376872379 | 1650 | nan | nan | nan | nan |
| nan | 1.0 | 1669 | 0.027363216504454613 | 0.9016298020954598 | 0.8809478672985782 | 0.9233061792171667 |
| 0.0185 | 1.0185739964050329 | 1700 | nan | nan | nan | nan |
| 0.0125 | 1.048532055122828 | 1750 | nan | nan | nan | nan |
| 0.0129 | 1.078490113840623 | 1800 | nan | nan | nan | nan |
| 0.0122 | 1.1084481725584183 | 1850 | nan | nan | nan | nan |
| 0.0122 | 1.1384062312762133 | 1900 | nan | nan | nan | nan |
| 0.0111 | 1.1683642899940083 | 1950 | nan | nan | nan | nan |
| 0.0133 | 1.1983223487118035 | 2000 | nan | nan | nan | nan |
| 0.0095 | 1.2282804074295985 | 2050 | nan | nan | nan | nan |
| 0.0102 | 1.2582384661473935 | 2100 | nan | nan | nan | nan |
| 0.0155 | 1.2881965248651888 | 2150 | nan | nan | nan | nan |
| 0.0137 | 1.3181545835829838 | 2200 | nan | nan | nan | nan |
| 0.0119 | 1.348112642300779 | 2250 | nan | nan | nan | nan |
| 0.0156 | 1.378070701018574 | 2300 | nan | nan | nan | nan |
| 0.0148 | 1.4080287597363692 | 2350 | nan | nan | nan | nan |
| 0.0136 | 1.4379868184541642 | 2400 | nan | nan | nan | nan |
| 0.0113 | 1.4679448771719592 | 2450 | nan | nan | nan | nan |
| 0.0152 | 1.4979029358897544 | 2500 | nan | nan | nan | nan |
| 0.0124 | 1.5278609946075494 | 2550 | nan | nan | nan | nan |
| 0.0112 | 1.5578190533253444 | 2600 | nan | nan | nan | nan |
| 0.0171 | 1.5877771120431396 | 2650 | nan | nan | nan | nan |
| 0.0118 | 1.6177351707609346 | 2700 | nan | nan | nan | nan |
| 0.0141 | 1.6476932294787296 | 2750 | nan | nan | nan | nan |
| 0.011 | 1.6776512881965249 | 2800 | nan | nan | nan | nan |
| 0.0116 | 1.70760934691432 | 2850 | nan | nan | nan | nan |
| 0.0136 | 1.737567405632115 | 2900 | nan | nan | nan | nan |
| 0.0159 | 1.76752546434991 | 2950 | nan | nan | nan | nan |
| 0.0113 | 1.7974835230677053 | 3000 | nan | nan | nan | nan |
| 0.0097 | 1.8274415817855003 | 3050 | nan | nan | nan | nan |
| 0.015 | 1.8573996405032953 | 3100 | nan | nan | nan | nan |
| 0.0119 | 1.8873576992210905 | 3150 | nan | nan | nan | nan |
| 0.0111 | 1.9173157579388855 | 3200 | nan | nan | nan | nan |
| 0.0147 | 1.9472738166566805 | 3250 | nan | nan | nan | nan |
| 0.0131 | 1.9772318753744758 | 3300 | nan | nan | nan | nan |
| nan | 2.0 | 3338 | 0.022580385208129883 | 0.9287871407696054 | 0.9111238532110092 | 0.9471488178025035 |
| 0.0084 | 2.007189934092271 | 3350 | nan | nan | nan | nan |
| 0.005 | 2.0371479928100658 | 3400 | nan | nan | nan | nan |
| 0.0055 | 2.067106051527861 | 3450 | nan | nan | nan | nan |
| 0.0068 | 2.097064110245656 | 3500 | nan | nan | nan | nan |
| 0.0057 | 2.127022168963451 | 3550 | nan | nan | nan | nan |
| 0.006 | 2.156980227681246 | 3600 | nan | nan | nan | nan |
| 0.0039 | 2.1869382863990414 | 3650 | nan | nan | nan | nan |
| 0.0058 | 2.2168963451168366 | 3700 | nan | nan | nan | nan |
| 0.0063 | 2.2468544038346314 | 3750 | nan | nan | nan | nan |
| 0.0059 | 2.2768124625524266 | 3800 | nan | nan | nan | nan |
| 0.0045 | 2.306770521270222 | 3850 | nan | nan | nan | nan |
| 0.0062 | 2.3367285799880166 | 3900 | nan | nan | nan | nan |
| 0.007 | 2.366686638705812 | 3950 | nan | nan | nan | nan |
| 0.0042 | 2.396644697423607 | 4000 | nan | nan | nan | nan |
| 0.0058 | 2.426602756141402 | 4050 | nan | nan | nan | nan |
| 0.0068 | 2.456560814859197 | 4100 | nan | nan | nan | nan |
| 0.005 | 2.4865188735769923 | 4150 | nan | nan | nan | nan |
| 0.0057 | 2.516476932294787 | 4200 | nan | nan | nan | nan |
| 0.0084 | 2.5464349910125823 | 4250 | nan | nan | nan | nan |
| 0.0079 | 2.5763930497303775 | 4300 | nan | nan | nan | nan |
| 0.0061 | 2.6063511084481723 | 4350 | nan | nan | nan | nan |
| 0.0066 | 2.6363091671659675 | 4400 | nan | nan | nan | nan |
| 0.0065 | 2.6662672258837627 | 4450 | nan | nan | nan | nan |
| 0.0048 | 2.696225284601558 | 4500 | nan | nan | nan | nan |
| 0.0047 | 2.7261833433193527 | 4550 | nan | nan | nan | nan |
| 0.005 | 2.756141402037148 | 4600 | nan | nan | nan | nan |
| 0.0042 | 2.786099460754943 | 4650 | nan | nan | nan | nan |
| 0.0046 | 2.8160575194727384 | 4700 | nan | nan | nan | nan |
| 0.0041 | 2.846015578190533 | 4750 | nan | nan | nan | nan |
| 0.0046 | 2.8759736369083284 | 4800 | nan | nan | nan | nan |
| 0.004 | 2.9059316956261236 | 4850 | nan | nan | nan | nan |
| 0.0046 | 2.9358897543439184 | 4900 | nan | nan | nan | nan |
| 0.0049 | 2.9658478130617136 | 4950 | nan | nan | nan | nan |
| 0.004 | 2.995805871779509 | 5000 | nan | nan | nan | nan |
| nan | 3.0 | 5007 | 0.023095035925507545 | 0.9380756417793455 | 0.9253817900637927 | 0.9511225909000596 |
| nan | 3.0 | 5007 | nan | nan | nan | nan |
Framework versions
- Transformers: 2.3.0
- Pytorch: (siehe Umgebung)
- Datasets: (siehe Umgebung)
- Tokenizers: (siehe Umgebung)
- Downloads last month
- 3
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support