YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

nc_ner_gbert_large_model_german_trained

Dieses Modell ist eine feinjustierte Variante von deepset/gbert-large und wurde auf dem german-ler-Datensatz mit feingranularen juristischen Entitäten (19 Labels) trainiert.
Es dient dem Vergleich mit kleineren BERT-Modellen hinsichtlich Performance und Effizienz im juristischen NER-Kontext.

Evaluationsergebnisse

  • F1-Score (micro avg): 0.9401
  • Precision (micro avg): 0.9218
  • Recall (micro avg): 0.9592
  • Loss: 0.0139

Klassenweise Metriken (fine level)

Klasse Bedeutung Coarse Coarse Bedeutung Precision Recall F1-Score Support
PER Person PER Person 0.9086 0.9191 0.9138 173
RR Judge PER Person 0.9861 1.0000 0.9930 142
AN Lawyer PER Person 1.0000 0.8333 0.9091 6
LD Country LOC Location 0.9858 0.9329 0.9586 149
ST City LOC Location 0.7639 0.8594 0.8088 64
STR Street LOC Location 0.9286 0.8667 0.8966 15
LDS Landscape LOC Location 0.5278 0.8636 0.6552 22
ORG Organization ORG Organization 0.9204 0.9204 0.9204 113
UN Company ORG Organization 0.9358 0.9444 0.9401 108
INN Institution ORG Organization 0.9241 0.9324 0.9283 222
GRT Court ORG Organization 0.9748 0.9626 0.9687 321
MRK Brand ORG Organization 0.7632 0.9063 0.8286 32
GS Law NRM Legal norm 0.9777 0.9890 0.9833 1818
VO Ordinance NRM Legal norm 0.9048 0.8028 0.8507 71
EUN EU legal norm NRM Legal norm 0.9045 0.9667 0.9251 150
VS Regulation REG Case-by-c. regul. 0.7794 0.8281 0.8030 64
VT Contract REG Case-by-c. regul. 0.8942 0.9621 0.9269 290
RS Court decision RS Court decision 0.9104 0.9799 0.9439 1245
LIT Legal literature LIT Legal literature 0.7337 0.8599 0.7918 314

Durchschnittswerte:

  • Macro avg (F1): 0.8919
  • Weighted avg (F1): 0.9413

Hinweis zur Metrikwahl

Für die Gesamteinschätzung wird der micro-average F1-Score verwendet, da hier alle Vorhersagen gleich gewichtet werden – unabhängig von der Klassengröße. Diese Methode ist besonders geeignet für sequenzbasierte Aufgaben wie NER, bei denen jede Token-Entscheidung den gleichen Einfluss auf die Gesamtleistung hat.

Überblick über die Metriktypen:

  • Micro average: Gesamtanzahl aller True Positives, False Positives und False Negatives → alle Klassenbeiträge gleich gewichtet
  • Macro average: Durchschnitt der Metriken über alle Klassen → alle Klassen gleich wichtig, unabhängig vom Support
  • Weighted average: Durchschnitt über alle Klassen, gewichtet nach Klassengröße → häufige Klassen haben mehr Einfluss

Trainingskonfiguration

  • Modell: deepset/gbert-large
  • Datensatz: german-ler (BIO-annotiert, 19 Feinlabels)
  • Trainingsepochen: 6
  • Batchgröße: 32
  • Lernrate: 2e-5
  • Weight Decay: 0.01
  • Evaluation alle: 200 Schritte
  • Selektion nach: F1-Score
  • Early Stopping: aktiviert, um Überanpassung zu vermeiden

Nutzung

Das Modell eignet sich für juristische NER-Anwendungen, bei denen eine detaillierte Extraktion juristisch relevanter Entitäten aus deutschsprachigen Rechtstexten gefragt ist – z. B. in LegalTech-Systemen, automatisierten Schriftsatzanalysen oder für juristische Wissensgraphen.

Training results

loss epoch step eval_loss eval_f1 eval_precision eval_recall
0.6156 0.029958058717795086 50 nan nan nan nan
0.131 0.05991611743559017 100 nan nan nan nan
0.0901 0.08987417615338526 150 nan nan nan nan
0.0647 0.11983223487118035 200 nan nan nan nan
nan 0.11983223487118035 200 0.05919138714671135 0.732017823042648 0.6748826291079812 0.799721835883171
0.0684 0.14979029358897544 250 nan nan nan nan
0.0574 0.17974835230677053 300 nan nan nan nan
0.0581 0.2097064110245656 350 nan nan nan nan
0.0529 0.2396644697423607 400 nan nan nan nan
nan 0.2396644697423607 400 0.05266263708472252 0.6787610619469026 0.6119355353438647 0.7619709914563878
0.0468 0.2696225284601558 450 nan nan nan nan
0.0477 0.2995805871779509 500 nan nan nan nan
0.0486 0.32953864589574594 550 nan nan nan nan
0.0332 0.35949670461354105 600 nan nan nan nan
nan 0.35949670461354105 600 0.040142327547073364 0.8362893490574796 0.7850418410041841 0.8946950129147626
0.0426 0.3894547633313361 650 nan nan nan nan
0.04 0.4194128220491312 700 nan nan nan nan
0.0329 0.44937088076692633 750 nan nan nan nan
0.0428 0.4793289394847214 800 nan nan nan nan
nan 0.4793289394847214 800 0.037605926394462585 0.7773444753946147 0.7296496426703852 0.8317107093184979
0.0358 0.5092869982025164 850 nan nan nan nan
0.0351 0.5392450569203115 900 nan nan nan nan
0.0332 0.5692031156381067 950 nan nan nan nan
0.0307 0.5991611743559018 1000 nan nan nan nan
nan 0.5991611743559018 1000 0.029554303735494614 0.8686291321329903 0.8343704245973645 0.9058215775879197
0.0346 0.6291192330736968 1050 nan nan nan nan
0.0242 0.6590772917914919 1100 nan nan nan nan
0.0243 0.689035350509287 1150 nan nan nan nan
0.0332 0.7189934092270821 1200 nan nan nan nan
nan 0.7189934092270821 1200 0.028585752472281456 0.8749881167411351 0.8388625592417062 0.9143651897476655
0.0378 0.7489514679448772 1250 nan nan nan nan
0.0246 0.7789095266626722 1300 nan nan nan nan
0.0342 0.8088675853804673 1350 nan nan nan nan
0.0291 0.8388256440982624 1400 nan nan nan nan
nan 0.8388256440982624 1400 0.02948427014052868 0.8413112311417397 0.7917616126205084 0.8974766540830519
0.0406 0.8687837028160575 1450 nan nan nan nan
0.0372 0.8987417615338527 1500 nan nan nan nan
0.025 0.9286998202516477 1550 nan nan nan nan
0.0264 0.9586578789694428 1600 nan nan nan nan
nan 0.9586578789694428 1600 0.025683972984552383 0.8732658417697787 0.8266193433895297 0.9254917544208225
0.03 0.9886159376872379 1650 nan nan nan nan
0.0205 1.0185739964050329 1700 nan nan nan nan
0.0145 1.048532055122828 1750 nan nan nan nan
0.0139 1.078490113840623 1800 nan nan nan nan
nan 1.078490113840623 1800 0.02673141472041607 0.8959493184872336 0.8666666666666667 0.9272799523147228
0.0163 1.1084481725584183 1850 nan nan nan nan
0.0239 1.1384062312762133 1900 nan nan nan nan
0.0156 1.1683642899940083 1950 nan nan nan nan
0.0178 1.1983223487118035 2000 nan nan nan nan
nan 1.1983223487118035 2000 0.02600107342004776 0.8435423682533904 0.7783003023177696 0.9207232267037552
0.0157 1.2282804074295985 2050 nan nan nan nan
0.0149 1.2582384661473935 2100 nan nan nan nan
0.0227 1.2881965248651888 2150 nan nan nan nan
0.0192 1.3181545835829838 2200 nan nan nan nan
nan 1.3181545835829838 2200 0.024343570694327354 0.8778073848496383 0.8423744292237443 0.9163520762964434
0.0152 1.348112642300779 2250 nan nan nan nan
0.0205 1.378070701018574 2300 nan nan nan nan
0.024 1.4080287597363692 2350 nan nan nan nan
0.0322 1.4379868184541642 2400 nan nan nan nan
nan 1.4379868184541642 2400 0.035087354481220245 0.6913349741152508 0.6034074074074074 0.8092588913173058
0.0201 1.4679448771719592 2450 nan nan nan nan
0.0224 1.4979029358897544 2500 nan nan nan nan
0.0425 1.5278609946075494 2550 nan nan nan nan
0.0474 1.5578190533253444 2600 nan nan nan nan
nan 1.5578190533253444 2600 0.031948916614055634 0.7382958394857986 0.6558641975308642 0.8444267832306775
0.021 1.5877771120431396 2650 nan nan nan nan
0.0228 1.6177351707609346 2700 nan nan nan nan
0.0237 1.6476932294787296 2750 nan nan nan nan
0.0224 1.6776512881965249 2800 nan nan nan nan
nan 1.6776512881965249 2800 0.029736803844571114 0.7946308724832215 0.7228915662650602 0.8821776276574608
0.0261 1.70760934691432 2850 nan nan nan nan
0.021 1.737567405632115 2900 nan nan nan nan
0.0174 1.76752546434991 2950 nan nan nan nan
0.021 1.7974835230677053 3000 nan nan nan nan
nan 1.7974835230677053 3000 0.02513810805976391 0.798989078436682 0.7320542507442938 0.8793959864891715
0.0169 1.8274415817855003 3050 nan nan nan nan
0.0221 1.8573996405032953 3100 nan nan nan nan
0.0217 1.8873576992210905 3150 nan nan nan nan
0.0174 1.9173157579388855 3200 nan nan nan nan
nan 1.9173157579388855 3200 0.023385705426335335 0.8838001514004542 0.8437217705510388 0.9278760182793563
0.0204 1.9472738166566805 3250 nan nan nan nan
0.0219 1.9772318753744758 3300 nan nan nan nan
0.0089 2.007189934092271 3350 nan nan nan nan
0.0082 2.0371479928100658 3400 nan nan nan nan
nan 2.0371479928100658 3400 0.019637661054730415 0.9227039084472893 0.9012883668056082 0.9451619312537254
0.0083 2.067106051527861 3450 nan nan nan nan
0.0092 2.097064110245656 3500 nan nan nan nan
0.0065 2.127022168963451 3550 nan nan nan nan
0.0078 2.156980227681246 3600 nan nan nan nan
nan 2.156980227681246 3600 0.020610226318240166 0.9047120418848168 0.868421052631579 0.9441684879793364
0.0092 2.1869382863990414 3650 nan nan nan nan
0.0057 2.2168963451168366 3700 nan nan nan nan
0.0061 2.2468544038346314 3750 nan nan nan nan
0.0084 2.2768124625524266 3800 nan nan nan nan
nan 2.2768124625524266 3800 0.02074912004172802 0.9234182098765432 0.897282099343955 0.9511225909000596
0.0125 2.306770521270222 3850 nan nan nan nan
0.0123 2.3367285799880166 3900 nan nan nan nan
0.011 2.366686638705812 3950 nan nan nan nan
0.0067 2.396644697423607 4000 nan nan nan nan
nan 2.396644697423607 4000 0.02030772715806961 0.9292713689725429 0.9080394387561623 0.9515199682098152
0.0082 2.426602756141402 4050 nan nan nan nan
0.0091 2.456560814859197 4100 nan nan nan nan
0.0074 2.4865188735769923 4150 nan nan nan nan
0.0113 2.516476932294787 4200 nan nan nan nan
nan 2.516476932294787 4200 0.021802891045808792 0.9147645189251661 0.8876635514018691 0.9435724220147029
0.0115 2.5464349910125823 4250 nan nan nan nan
0.0182 2.5763930497303775 4300 nan nan nan nan
0.0094 2.6063511084481723 4350 nan nan nan nan
0.0118 2.6363091671659675 4400 nan nan nan nan
nan 2.6363091671659675 4400 0.02236076258122921 0.9153225806451613 0.8855656697009102 0.9471488178025035
0.0098 2.6662672258837627 4450 nan nan nan nan
0.0079 2.696225284601558 4500 nan nan nan nan
0.0084 2.7261833433193527 4550 nan nan nan nan
0.0065 2.756141402037148 4600 nan nan nan nan
nan 2.756141402037148 4600 0.022946279495954514 0.9190857363294436 0.8929910044977512 0.9467514404927478
0.0069 2.786099460754943 4650 nan nan nan nan
0.0086 2.8160575194727384 4700 nan nan nan nan
0.0086 2.846015578190533 4750 nan nan nan nan
0.01 2.8759736369083284 4800 nan nan nan nan
nan 2.8759736369083284 4800 0.02151244319975376 0.8928809048569528 0.8558673469387755 0.933240611961057
0.0076 2.9059316956261236 4850 nan nan nan nan
0.0087 2.9358897543439184 4900 nan nan nan nan
0.0112 2.9658478130617136 4950 nan nan nan nan
0.0104 2.995805871779509 5000 nan nan nan nan
nan 2.995805871779509 5000 0.023878246545791626 0.8814202981106997 0.844 0.9223127359427776
0.0096 3.0257639304973036 5050 nan nan nan nan
0.0066 3.055721989215099 5100 nan nan nan nan
0.007 3.085680047932894 5150 nan nan nan nan
0.0073 3.115638106650689 5200 nan nan nan nan
nan 3.115638106650689 5200 0.021819742396473885 0.9022657450076804 0.8729333085639978 0.9336379892708127
0.0049 3.145596165368484 5250 nan nan nan nan
0.0045 3.1755542240862793 5300 nan nan nan nan
0.0068 3.205512282804074 5350 nan nan nan nan
0.0074 3.2354703415218693 5400 nan nan nan nan
nan 3.2354703415218693 5400 0.023947738111019135 0.8841031453669594 0.8426359380626576 0.9298629048281343
0.0063 3.2654284002396645 5450 nan nan nan nan
0.0059 3.2953864589574597 5500 nan nan nan nan
0.0067 3.3253445176752545 5550 nan nan nan nan
0.0048 3.3553025763930497 5600 nan nan nan nan
nan 3.3553025763930497 5600 0.022567927837371826 0.8971162082421242 0.860979174278407 0.9364196304391019
nan 3.3553025763930497 5600 nan nan nan nan

Framework versions

  • Transformers: 2.3.0
  • Pytorch: (siehe Umgebung)
  • Datasets: (siehe Umgebung)
  • Tokenizers: (siehe Umgebung)
Downloads last month
3
Safetensors
Model size
0.3B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support