YAML Metadata
Warning:
empty or missing yaml metadata in repo card
(https://huggingface.co/docs/hub/model-cards#model-card-metadata)
nc_ner_bert_model
This model is a fine-tuned version of bert-base-german-cased on the german-ler dataset.
It achieves the following results on the evaluation set:
Loss: 0.012887685559689999 F1: 0.9469182857674071 Precision: 0.9365575579257079 Recall: 0.9575108103026885
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2e-05
- train_batch_size: 32
- eval_batch_size: 32
- num_epochs: 3
Training results
| loss | epoch | step | eval_loss | eval_f1 | eval_precision | eval_recall |
|---|---|---|---|---|---|---|
| 1.2894 | 0.029958058717795086 | 50 | nan | nan | nan | nan |
| 0.266 | 0.05991611743559017 | 100 | nan | nan | nan | nan |
| 0.1783 | 0.08987417615338526 | 150 | nan | nan | nan | nan |
| 0.1294 | 0.11983223487118035 | 200 | nan | nan | nan | nan |
| nan | 0.11983223487118035 | 200 | 0.10809426009654999 | 0.600896860986547 | 0.5898564593301435 | 0.6123584343333995 |
| 0.1124 | 0.14979029358897544 | 250 | nan | nan | nan | nan |
| 0.0959 | 0.17974835230677053 | 300 | nan | nan | nan | nan |
| 0.0836 | 0.2097064110245656 | 350 | nan | nan | nan | nan |
| 0.0674 | 0.2396644697423607 | 400 | nan | nan | nan | nan |
| nan | 0.2396644697423607 | 400 | 0.0636947751045227 | 0.7415751789976134 | 0.7137081955163542 | 0.7717067355454004 |
| 0.0614 | 0.2696225284601558 | 450 | nan | nan | nan | nan |
| 0.0578 | 0.2995805871779509 | 500 | nan | nan | nan | nan |
| 0.0668 | 0.32953864589574594 | 550 | nan | nan | nan | nan |
| 0.0443 | 0.35949670461354105 | 600 | nan | nan | nan | nan |
| nan | 0.35949670461354105 | 600 | 0.04324115440249443 | 0.7997341183173486 | 0.7659148781375046 | 0.8366779256904431 |
| 0.0556 | 0.3894547633313361 | 650 | nan | nan | nan | nan |
| 0.0403 | 0.4194128220491312 | 700 | nan | nan | nan | nan |
| 0.0402 | 0.44937088076692633 | 750 | nan | nan | nan | nan |
| 0.0459 | 0.4793289394847214 | 800 | nan | nan | nan | nan |
| nan | 0.4793289394847214 | 800 | 0.03784459829330444 | 0.8212661106899166 | 0.7851059974633086 | 0.8609179415855355 |
| 0.0435 | 0.5092869982025164 | 850 | nan | nan | nan | nan |
| 0.0397 | 0.5392450569203115 | 900 | nan | nan | nan | nan |
| 0.0434 | 0.5692031156381067 | 950 | nan | nan | nan | nan |
| 0.0366 | 0.5991611743559018 | 1000 | nan | nan | nan | nan |
| nan | 0.5991611743559018 | 1000 | 0.03289766237139702 | 0.8434353030590918 | 0.808119424722374 | 0.881978939002583 |
| 0.0384 | 0.6291192330736968 | 1050 | nan | nan | nan | nan |
| 0.026 | 0.6590772917914919 | 1100 | nan | nan | nan | nan |
| 0.0296 | 0.689035350509287 | 1150 | nan | nan | nan | nan |
| 0.0374 | 0.7189934092270821 | 1200 | nan | nan | nan | nan |
| nan | 0.7189934092270821 | 1200 | 0.03102787956595421 | 0.8673489090558023 | 0.8435680751173709 | 0.8925094377111067 |
| 0.0407 | 0.7489514679448772 | 1250 | nan | nan | nan | nan |
| 0.0308 | 0.7789095266626722 | 1300 | nan | nan | nan | nan |
| 0.049 | 0.8088675853804673 | 1350 | nan | nan | nan | nan |
| 0.0339 | 0.8388256440982624 | 1400 | nan | nan | nan | nan |
| nan | 0.8388256440982624 | 1400 | 0.02796086296439171 | 0.8820868226008278 | 0.8554891710231516 | 0.9103914166501093 |
| 0.0379 | 0.8687837028160575 | 1450 | nan | nan | nan | nan |
| 0.0341 | 0.8987417615338527 | 1500 | nan | nan | nan | nan |
| 0.0305 | 0.9286998202516477 | 1550 | nan | nan | nan | nan |
| 0.0295 | 0.9586578789694428 | 1600 | nan | nan | nan | nan |
| nan | 0.9586578789694428 | 1600 | 0.027872325852513313 | 0.8856124120651441 | 0.8598428143712575 | 0.9129743691635208 |
| 0.0301 | 0.9886159376872379 | 1650 | nan | nan | nan | nan |
| 0.0241 | 1.0185739964050329 | 1700 | nan | nan | nan | nan |
| 0.0163 | 1.048532055122828 | 1750 | nan | nan | nan | nan |
| 0.0171 | 1.078490113840623 | 1800 | nan | nan | nan | nan |
| nan | 1.078490113840623 | 1800 | 0.028876449912786484 | 0.8950670914180905 | 0.8704468644386031 | 0.9211206040135108 |
| 0.0164 | 1.1084481725584183 | 1850 | nan | nan | nan | nan |
| 0.0172 | 1.1384062312762133 | 1900 | nan | nan | nan | nan |
| 0.016 | 1.1683642899940083 | 1950 | nan | nan | nan | nan |
| 0.0174 | 1.1983223487118035 | 2000 | nan | nan | nan | nan |
| nan | 1.1983223487118035 | 2000 | 0.02645428664982319 | 0.9001839481072708 | 0.8778323262839879 | 0.9237035565269223 |
| 0.0136 | 1.2282804074295985 | 2050 | nan | nan | nan | nan |
| 0.0161 | 1.2582384661473935 | 2100 | nan | nan | nan | nan |
| 0.0223 | 1.2881965248651888 | 2150 | nan | nan | nan | nan |
| 0.0193 | 1.3181545835829838 | 2200 | nan | nan | nan | nan |
| nan | 1.3181545835829838 | 2200 | 0.02655726857483387 | 0.9028328338006382 | 0.8792843691148776 | 0.9276773296244785 |
| 0.0185 | 1.348112642300779 | 2250 | nan | nan | nan | nan |
| 0.0225 | 1.378070701018574 | 2300 | nan | nan | nan | nan |
| 0.0184 | 1.4080287597363692 | 2350 | nan | nan | nan | nan |
| 0.0174 | 1.4379868184541642 | 2400 | nan | nan | nan | nan |
| nan | 1.4379868184541642 | 2400 | 0.0267584640532732 | 0.9080280592361653 | 0.8908430510418658 | 0.9258891317305782 |
| 0.0162 | 1.4679448771719592 | 2450 | nan | nan | nan | nan |
| 0.0171 | 1.4979029358897544 | 2500 | nan | nan | nan | nan |
| 0.0161 | 1.5278609946075494 | 2550 | nan | nan | nan | nan |
| 0.0137 | 1.5578190533253444 | 2600 | nan | nan | nan | nan |
| nan | 1.5578190533253444 | 2600 | 0.024330291897058487 | 0.9124890489633019 | 0.8944656488549618 | 0.9312537254122789 |
| 0.0182 | 1.5877771120431396 | 2650 | nan | nan | nan | nan |
| 0.0164 | 1.6177351707609346 | 2700 | nan | nan | nan | nan |
| 0.0171 | 1.6476932294787296 | 2750 | nan | nan | nan | nan |
| 0.0164 | 1.6776512881965249 | 2800 | nan | nan | nan | nan |
| nan | 1.6776512881965249 | 2800 | 0.02479366399347782 | 0.9151126651126652 | 0.8951168535056052 | 0.9360222531293463 |
| 0.0164 | 1.70760934691432 | 2850 | nan | nan | nan | nan |
| 0.0198 | 1.737567405632115 | 2900 | nan | nan | nan | nan |
| 0.0238 | 1.76752546434991 | 2950 | nan | nan | nan | nan |
| 0.0151 | 1.7974835230677053 | 3000 | nan | nan | nan | nan |
| nan | 1.7974835230677053 | 3000 | 0.023243384435772896 | 0.9179177227529732 | 0.9010526315789473 | 0.9354261871647129 |
| 0.0135 | 1.8274415817855003 | 3050 | nan | nan | nan | nan |
| 0.0195 | 1.8573996405032953 | 3100 | nan | nan | nan | nan |
| 0.0175 | 1.8873576992210905 | 3150 | nan | nan | nan | nan |
| 0.0163 | 1.9173157579388855 | 3200 | nan | nan | nan | nan |
| nan | 1.9173157579388855 | 3200 | 0.0228468906134367 | 0.9134867462860471 | 0.8932776300797569 | 0.9346314325452016 |
| 0.0198 | 1.9472738166566805 | 3250 | nan | nan | nan | nan |
| 0.0179 | 1.9772318753744758 | 3300 | nan | nan | nan | nan |
| 0.012 | 2.007189934092271 | 3350 | nan | nan | nan | nan |
| 0.0089 | 2.0371479928100658 | 3400 | nan | nan | nan | nan |
| nan | 2.0371479928100658 | 3400 | 0.023394515737891197 | 0.922386895475819 | 0.9056098027953283 | 0.9397973375720247 |
| 0.0086 | 2.067106051527861 | 3450 | nan | nan | nan | nan |
| 0.0088 | 2.097064110245656 | 3500 | nan | nan | nan | nan |
| 0.0087 | 2.127022168963451 | 3550 | nan | nan | nan | nan |
| 0.009 | 2.156980227681246 | 3600 | nan | nan | nan | nan |
| nan | 2.156980227681246 | 3600 | 0.02455068565905094 | 0.9212935904928892 | 0.903688133002102 | 0.9395986489171468 |
| 0.0081 | 2.1869382863990414 | 3650 | nan | nan | nan | nan |
| 0.01 | 2.2168963451168366 | 3700 | nan | nan | nan | nan |
| 0.0089 | 2.2468544038346314 | 3750 | nan | nan | nan | nan |
| 0.0099 | 2.2768124625524266 | 3800 | nan | nan | nan | nan |
| nan | 2.2768124625524266 | 3800 | 0.02484181709587574 | 0.9240506329113923 | 0.9060530838266183 | 0.9427776673951918 |
| 0.0094 | 2.306770521270222 | 3850 | nan | nan | nan | nan |
| 0.0102 | 2.3367285799880166 | 3900 | nan | nan | nan | nan |
| 0.0105 | 2.366686638705812 | 3950 | nan | nan | nan | nan |
| 0.0073 | 2.396644697423607 | 4000 | nan | nan | nan | nan |
| nan | 2.396644697423607 | 4000 | 0.023172734305262566 | 0.9237816764132553 | 0.9066386072316817 | 0.9415855354659249 |
| 0.0082 | 2.426602756141402 | 4050 | nan | nan | nan | nan |
| 0.0088 | 2.456560814859197 | 4100 | nan | nan | nan | nan |
| 0.0087 | 2.4865188735769923 | 4150 | nan | nan | nan | nan |
| 0.0099 | 2.516476932294787 | 4200 | nan | nan | nan | nan |
| nan | 2.516476932294787 | 4200 | 0.023710619658231735 | 0.92925729962767 | 0.9166827759520587 | 0.9421816014305583 |
| 0.0113 | 2.5464349910125823 | 4250 | nan | nan | nan | nan |
| 0.0123 | 2.5763930497303775 | 4300 | nan | nan | nan | nan |
| 0.011 | 2.6063511084481723 | 4350 | nan | nan | nan | nan |
| 0.0095 | 2.6363091671659675 | 4400 | nan | nan | nan | nan |
| nan | 2.6363091671659675 | 4400 | 0.022994335740804672 | 0.9257888585897935 | 0.90792741165234 | 0.9443671766342142 |
| 0.0111 | 2.6662672258837627 | 4450 | nan | nan | nan | nan |
| 0.0097 | 2.696225284601558 | 4500 | nan | nan | nan | nan |
| 0.0089 | 2.7261833433193527 | 4550 | nan | nan | nan | nan |
| 0.007 | 2.756141402037148 | 4600 | nan | nan | nan | nan |
| nan | 2.756141402037148 | 4600 | 0.02421596832573414 | 0.927363378629387 | 0.9128175519630485 | 0.9423802900854361 |
| nan | 2.756141402037148 | 4600 | nan | nan | nan | nan |
Framework versions
- Transformers: 2.3.0
- Pytorch: (siehe Umgebung)
- Datasets: (siehe Umgebung)
- Tokenizers: (siehe Umgebung)
- Downloads last month
- -
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support