Update README.md
Browse files
README.md
CHANGED
|
@@ -5,10 +5,37 @@ Die ursprünglichen 19 Labels wurden auf 7 Oberkategorien reduziert, um eine rob
|
|
| 5 |
|
| 6 |
## Evaluationsergebnisse
|
| 7 |
|
| 8 |
-
- **F1-Score**: 0.
|
| 9 |
-
- **Precision**: 0.
|
| 10 |
-
- **Recall**: 0.
|
| 11 |
-
- **Loss**:0.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 12 |
|
| 13 |
## Zusammengeführte Entitäten
|
| 14 |
|
|
|
|
| 5 |
|
| 6 |
## Evaluationsergebnisse
|
| 7 |
|
| 8 |
+
- **F1-Score (micro avg)**: 0.9792
|
| 9 |
+
- **Precision (micro avg)**: 0.9750
|
| 10 |
+
- **Recall (micro avg)**: 0.9835
|
| 11 |
+
- **Loss**: 0.0088
|
| 12 |
+
|
| 13 |
+
### Klassenweise Metriken (coarse level):
|
| 14 |
+
|
| 15 |
+
| Klasse | Bedeutung | Precision | Recall | F1-Score | Support |
|
| 16 |
+
|--------|--------------------------|-----------|--------|----------|---------|
|
| 17 |
+
| PER | Person | 0.9563 | 0.9533 | 0.9548 | 321 |
|
| 18 |
+
| ORG | Organization | 0.9799 | 0.9799 | 0.9799 | 796 |
|
| 19 |
+
| RS | Court decision | 0.9872 | 0.9928 | 0.9900 | 1245 |
|
| 20 |
+
| LIT | Legal literature | 0.9717 | 0.9841 | 0.9778 | 314 |
|
| 21 |
+
| LOC | Location | 0.9252 | 0.9400 | 0.9325 | 250 |
|
| 22 |
+
| NRM | Legal norm | 0.9854 | 0.9907 | 0.9880 | 2039 |
|
| 23 |
+
| REG | Case-by-case regul. | 0.9200 | 0.9746 | 0.9465 | 354 |
|
| 24 |
+
|
| 25 |
+
### Durchschnittswerte:
|
| 26 |
+
|
| 27 |
+
- **Macro avg (F1)**: 0.9671
|
| 28 |
+
- **Weighted avg (F1)**: 0.9793
|
| 29 |
+
|
| 30 |
+
### Hinweis zur Metrikwahl
|
| 31 |
+
|
| 32 |
+
Für die Gesamteinschätzung wird der **micro-average F1-Score** herangezogen, da hier **alle Vorhersagen gleich gewichtet** werden – unabhängig von der Klassengröße. Dies ist bei sequenzbasierten NER-Aufgaben sinnvoll, da jede Token-Entscheidung den gleichen Einfluss auf die Gesamtleistung hat.
|
| 33 |
+
|
| 34 |
+
#### Überblick über die Metriktypen:
|
| 35 |
+
|
| 36 |
+
- **Micro average**: Gesamtanzahl aller True Positives, False Positives und False Negatives → **alle Klassenbeiträge gleich gewichtet**
|
| 37 |
+
- **Macro average**: Durchschnitt der Metriken über alle Klassen → **alle Klassen gleich wichtig**, unabhängig von Support
|
| 38 |
+
- **Weighted average**: Durchschnitt über alle Klassen, **gewichtet nach Klassengröße** → größere Klassen haben mehr Einfluss
|
| 39 |
|
| 40 |
## Zusammengeführte Entitäten
|
| 41 |
|