YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

nc_ner_bert_model

This model is a fine-tuned version of bert-base-german-cased on the german-ler dataset.
It achieves the following results on the evaluation set:

Loss: 0.010139505378901958 F1: 0.9631078814980436 Precision: 0.9545706371191136 Recall: 0.9717992103778906

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 2e-05
  • train_batch_size: 32
  • eval_batch_size: 32
  • num_epochs: 3

Training results

loss epoch step eval_loss eval_f1 eval_precision eval_recall
0.7373 0.029958058717795086 50 nan nan nan nan
0.1794 0.05991611743559017 100 nan nan nan nan
0.1247 0.08987417615338526 150 nan nan nan nan
0.0833 0.11983223487118035 200 nan nan nan nan
0.0756 0.14979029358897544 250 nan nan nan nan
0.0647 0.17974835230677053 300 nan nan nan nan
0.0527 0.2097064110245656 350 nan nan nan nan
0.0474 0.2396644697423607 400 nan nan nan nan
0.0415 0.2696225284601558 450 nan nan nan nan
0.0448 0.2995805871779509 500 nan nan nan nan
0.0489 0.32953864589574594 550 nan nan nan nan
0.0333 0.35949670461354105 600 nan nan nan nan
0.0454 0.3894547633313361 650 nan nan nan nan
0.0321 0.4194128220491312 700 nan nan nan nan
0.0311 0.44937088076692633 750 nan nan nan nan
0.0346 0.4793289394847214 800 nan nan nan nan
0.0319 0.5092869982025164 850 nan nan nan nan
0.0341 0.5392450569203115 900 nan nan nan nan
0.036 0.5692031156381067 950 nan nan nan nan
0.0308 0.5991611743559018 1000 nan nan nan nan
0.0343 0.6291192330736968 1050 nan nan nan nan
0.0213 0.6590772917914919 1100 nan nan nan nan
0.0235 0.689035350509287 1150 nan nan nan nan
0.0287 0.7189934092270821 1200 nan nan nan nan
0.0387 0.7489514679448772 1250 nan nan nan nan
0.0234 0.7789095266626722 1300 nan nan nan nan
0.0429 0.8088675853804673 1350 nan nan nan nan
0.0283 0.8388256440982624 1400 nan nan nan nan
0.0351 0.8687837028160575 1450 nan nan nan nan
0.0295 0.8987417615338527 1500 nan nan nan nan
0.025 0.9286998202516477 1550 nan nan nan nan
0.0238 0.9586578789694428 1600 nan nan nan nan
0.0238 0.9886159376872379 1650 nan nan nan nan
nan 1.0 1669 0.027363216504454613 0.9016298020954598 0.8809478672985782 0.9233061792171667
0.0185 1.0185739964050329 1700 nan nan nan nan
0.0125 1.048532055122828 1750 nan nan nan nan
0.0129 1.078490113840623 1800 nan nan nan nan
0.0122 1.1084481725584183 1850 nan nan nan nan
0.0122 1.1384062312762133 1900 nan nan nan nan
0.0111 1.1683642899940083 1950 nan nan nan nan
0.0133 1.1983223487118035 2000 nan nan nan nan
0.0095 1.2282804074295985 2050 nan nan nan nan
0.0102 1.2582384661473935 2100 nan nan nan nan
0.0155 1.2881965248651888 2150 nan nan nan nan
0.0137 1.3181545835829838 2200 nan nan nan nan
0.0119 1.348112642300779 2250 nan nan nan nan
0.0156 1.378070701018574 2300 nan nan nan nan
0.0148 1.4080287597363692 2350 nan nan nan nan
0.0136 1.4379868184541642 2400 nan nan nan nan
0.0113 1.4679448771719592 2450 nan nan nan nan
0.0152 1.4979029358897544 2500 nan nan nan nan
0.0124 1.5278609946075494 2550 nan nan nan nan
0.0112 1.5578190533253444 2600 nan nan nan nan
0.0171 1.5877771120431396 2650 nan nan nan nan
0.0118 1.6177351707609346 2700 nan nan nan nan
0.0141 1.6476932294787296 2750 nan nan nan nan
0.011 1.6776512881965249 2800 nan nan nan nan
0.0116 1.70760934691432 2850 nan nan nan nan
0.0136 1.737567405632115 2900 nan nan nan nan
0.0159 1.76752546434991 2950 nan nan nan nan
0.0113 1.7974835230677053 3000 nan nan nan nan
0.0097 1.8274415817855003 3050 nan nan nan nan
0.015 1.8573996405032953 3100 nan nan nan nan
0.0119 1.8873576992210905 3150 nan nan nan nan
0.0111 1.9173157579388855 3200 nan nan nan nan
0.0147 1.9472738166566805 3250 nan nan nan nan
0.0131 1.9772318753744758 3300 nan nan nan nan
nan 2.0 3338 0.022580385208129883 0.9287871407696054 0.9111238532110092 0.9471488178025035
0.0084 2.007189934092271 3350 nan nan nan nan
0.005 2.0371479928100658 3400 nan nan nan nan
0.0055 2.067106051527861 3450 nan nan nan nan
0.0068 2.097064110245656 3500 nan nan nan nan
0.0057 2.127022168963451 3550 nan nan nan nan
0.006 2.156980227681246 3600 nan nan nan nan
0.0039 2.1869382863990414 3650 nan nan nan nan
0.0058 2.2168963451168366 3700 nan nan nan nan
0.0063 2.2468544038346314 3750 nan nan nan nan
0.0059 2.2768124625524266 3800 nan nan nan nan
0.0045 2.306770521270222 3850 nan nan nan nan
0.0062 2.3367285799880166 3900 nan nan nan nan
0.007 2.366686638705812 3950 nan nan nan nan
0.0042 2.396644697423607 4000 nan nan nan nan
0.0058 2.426602756141402 4050 nan nan nan nan
0.0068 2.456560814859197 4100 nan nan nan nan
0.005 2.4865188735769923 4150 nan nan nan nan
0.0057 2.516476932294787 4200 nan nan nan nan
0.0084 2.5464349910125823 4250 nan nan nan nan
0.0079 2.5763930497303775 4300 nan nan nan nan
0.0061 2.6063511084481723 4350 nan nan nan nan
0.0066 2.6363091671659675 4400 nan nan nan nan
0.0065 2.6662672258837627 4450 nan nan nan nan
0.0048 2.696225284601558 4500 nan nan nan nan
0.0047 2.7261833433193527 4550 nan nan nan nan
0.005 2.756141402037148 4600 nan nan nan nan
0.0042 2.786099460754943 4650 nan nan nan nan
0.0046 2.8160575194727384 4700 nan nan nan nan
0.0041 2.846015578190533 4750 nan nan nan nan
0.0046 2.8759736369083284 4800 nan nan nan nan
0.004 2.9059316956261236 4850 nan nan nan nan
0.0046 2.9358897543439184 4900 nan nan nan nan
0.0049 2.9658478130617136 4950 nan nan nan nan
0.004 2.995805871779509 5000 nan nan nan nan
nan 3.0 5007 0.023095035925507545 0.9380756417793455 0.9253817900637927 0.9511225909000596
nan 3.0 5007 nan nan nan nan

Framework versions

  • Transformers: 2.3.0
  • Pytorch: (siehe Umgebung)
  • Datasets: (siehe Umgebung)
  • Tokenizers: (siehe Umgebung)
Downloads last month
3
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support