NICFRU commited on
Commit
f7f4a72
·
verified ·
1 Parent(s): a5b1d4d

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +31 -4
README.md CHANGED
@@ -5,10 +5,37 @@ Die ursprünglichen 19 Labels wurden auf 7 Oberkategorien reduziert, um eine rob
5
 
6
  ## Evaluationsergebnisse
7
 
8
- - **F1-Score**: 0.9792212654436541
9
- - **Precision**: 0.9750232991612302
10
- - **Recall**: 0.9834555367550292
11
- - **Loss**:0.008847936056554317
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
12
 
13
  ## Zusammengeführte Entitäten
14
 
 
5
 
6
  ## Evaluationsergebnisse
7
 
8
+ - **F1-Score (micro avg)**: 0.9792
9
+ - **Precision (micro avg)**: 0.9750
10
+ - **Recall (micro avg)**: 0.9835
11
+ - **Loss**: 0.0088
12
+
13
+ ### Klassenweise Metriken (coarse level):
14
+
15
+ | Klasse | Bedeutung | Precision | Recall | F1-Score | Support |
16
+ |--------|--------------------------|-----------|--------|----------|---------|
17
+ | PER | Person | 0.9563 | 0.9533 | 0.9548 | 321 |
18
+ | ORG | Organization | 0.9799 | 0.9799 | 0.9799 | 796 |
19
+ | RS | Court decision | 0.9872 | 0.9928 | 0.9900 | 1245 |
20
+ | LIT | Legal literature | 0.9717 | 0.9841 | 0.9778 | 314 |
21
+ | LOC | Location | 0.9252 | 0.9400 | 0.9325 | 250 |
22
+ | NRM | Legal norm | 0.9854 | 0.9907 | 0.9880 | 2039 |
23
+ | REG | Case-by-case regul. | 0.9200 | 0.9746 | 0.9465 | 354 |
24
+
25
+ ### Durchschnittswerte:
26
+
27
+ - **Macro avg (F1)**: 0.9671
28
+ - **Weighted avg (F1)**: 0.9793
29
+
30
+ ### Hinweis zur Metrikwahl
31
+
32
+ Für die Gesamteinschätzung wird der **micro-average F1-Score** herangezogen, da hier **alle Vorhersagen gleich gewichtet** werden – unabhängig von der Klassengröße. Dies ist bei sequenzbasierten NER-Aufgaben sinnvoll, da jede Token-Entscheidung den gleichen Einfluss auf die Gesamtleistung hat.
33
+
34
+ #### Überblick über die Metriktypen:
35
+
36
+ - **Micro average**: Gesamtanzahl aller True Positives, False Positives und False Negatives → **alle Klassenbeiträge gleich gewichtet**
37
+ - **Macro average**: Durchschnitt der Metriken über alle Klassen → **alle Klassen gleich wichtig**, unabhängig von Support
38
+ - **Weighted average**: Durchschnitt über alle Klassen, **gewichtet nach Klassengröße** → größere Klassen haben mehr Einfluss
39
 
40
  ## Zusammengeführte Entitäten
41