sebelsn's picture
Update example/README.md
1055254 verified
# Beispiel: Qualitativer Vergleich von LoRA-Checkpoints
Dieser Ordner enthält ein minimales Beispiel, wie der Datensatz
für explorative Fine-Tuning-Experimente genutzt werden kann.
Das Ziel ist nicht, ein „bestes“ Modell zu finden, sondern
sichtbar zu machen, wie sich Antwortstil, Erklärungstiefe und
Zurückhaltung eines Sprachmodells über verschiedene Trainingsstände verändern.
## Vorgehen
Das Skript `compare_checkpoints.py`:
- lädt das Basismodell
- lädt anschließend mehrere LoRA-Checkpoints
- stellt allen Varianten dieselbe Frage
- verwendet identische, deterministische Inferenzparameter
- gibt die Antworten nebeneinander aus
Es findet **keine Bewertung** statt.
Die Frage wird bewusst zur Laufzeit eingegeben, um unterschiedliche
Fragetypen vergleichen zu können.
## Beobachtung statt Optimierung
Beim Vergleich zeigt sich, dass bereits kleine stilistische Anpassungen
große Auswirkungen darauf haben können,
- wie ausführlich ein Modell antwortet
- welche Aspekte es hervorhebt oder auslässt
- wie sicher oder zurückhaltend es formuliert
Insbesondere bei scheinbar einfachen Sachfragen kann sich der
Antwortcharakter stark verändern – bis hin zu verkürzten oder
inhaltlich fragwürdigen Erklärungen.
Dies ist kein Fehler des Modells, sondern eine Folge gezielter
stilistischer Verschiebung.
## Einordnung
Die hier gezeigten Ergebnisse sollen nicht als Bewertung im Sinne von
„richtig“ oder „falsch“ verstanden werden.
Sie zeigen vielmehr, wie stark sich Antworten eines Sprachmodells durch
stilistische Anpassungen verändern können – selbst bei einfachen,
allgemein bekannten Fragestellungen.
Für technisch versierte Nutzer ist dies meist leicht einzuordnen.
Für Laien kann eine ruhig formulierte, verkürzte oder vereinfachte
Antwort jedoch schnell überzeugender wirken als eine ausführliche,
präzisere Erklärung.
Das Beispiel macht deutlich, dass Sprachmodelle keine Bedeutung
„verstehen“, sondern Antworten auf Basis erlernter Muster erzeugen.
Welche Aspekte betont, vereinfacht oder ausgelassen werden, hängt stark
vom Training und den getroffenen Annahmen ab.
Gerade deshalb ist es wichtig, solche Anpassungen nachvollziehen,
vergleichen und bewusst einzusetzen.
## Basismodell
Die Beispiel-Skripte in diesem Repository wurden mit dem Sprachmodell
- `ibm-granite/granite-4.0-micro`
erstellt.
Der Datensatz selbst ist nicht an ein bestimmtes Modell gebunden und kann
grundsätzlich mit anderen generativen Sprachmodellen verwendet werden.
## Voraussetzungen (Beispiel-Skripte)
Die Skripte im Ordner `example/` setzen eine funktionierende
Python-Umgebung voraus sowie die folgenden Bibliotheken:
- `transformers[torch]`
- `peft`
- `datasets`
Das verwendete Sprachmodell muss lokal verfügbar sein oder beim ersten
Start über Hugging Face heruntergeladen werden können.
Die Skripte sind als reproduzierbare Beispiele gedacht und erfordern keine
zusätzlichen Frameworks oder Dienste.