sebelsn's picture
Update example/README.md
1055254 verified

Beispiel: Qualitativer Vergleich von LoRA-Checkpoints

Dieser Ordner enthält ein minimales Beispiel, wie der Datensatz für explorative Fine-Tuning-Experimente genutzt werden kann.

Das Ziel ist nicht, ein „bestes“ Modell zu finden, sondern sichtbar zu machen, wie sich Antwortstil, Erklärungstiefe und Zurückhaltung eines Sprachmodells über verschiedene Trainingsstände verändern.

Vorgehen

Das Skript compare_checkpoints.py:

  • lädt das Basismodell
  • lädt anschließend mehrere LoRA-Checkpoints
  • stellt allen Varianten dieselbe Frage
  • verwendet identische, deterministische Inferenzparameter
  • gibt die Antworten nebeneinander aus

Es findet keine Bewertung statt.

Die Frage wird bewusst zur Laufzeit eingegeben, um unterschiedliche Fragetypen vergleichen zu können.

Beobachtung statt Optimierung

Beim Vergleich zeigt sich, dass bereits kleine stilistische Anpassungen große Auswirkungen darauf haben können,

  • wie ausführlich ein Modell antwortet
  • welche Aspekte es hervorhebt oder auslässt
  • wie sicher oder zurückhaltend es formuliert

Insbesondere bei scheinbar einfachen Sachfragen kann sich der Antwortcharakter stark verändern – bis hin zu verkürzten oder inhaltlich fragwürdigen Erklärungen.

Dies ist kein Fehler des Modells, sondern eine Folge gezielter stilistischer Verschiebung.

Einordnung

Die hier gezeigten Ergebnisse sollen nicht als Bewertung im Sinne von „richtig“ oder „falsch“ verstanden werden.

Sie zeigen vielmehr, wie stark sich Antworten eines Sprachmodells durch stilistische Anpassungen verändern können – selbst bei einfachen, allgemein bekannten Fragestellungen.

Für technisch versierte Nutzer ist dies meist leicht einzuordnen. Für Laien kann eine ruhig formulierte, verkürzte oder vereinfachte Antwort jedoch schnell überzeugender wirken als eine ausführliche, präzisere Erklärung.

Das Beispiel macht deutlich, dass Sprachmodelle keine Bedeutung „verstehen“, sondern Antworten auf Basis erlernter Muster erzeugen. Welche Aspekte betont, vereinfacht oder ausgelassen werden, hängt stark vom Training und den getroffenen Annahmen ab.

Gerade deshalb ist es wichtig, solche Anpassungen nachvollziehen, vergleichen und bewusst einzusetzen.

Basismodell

Die Beispiel-Skripte in diesem Repository wurden mit dem Sprachmodell

  • ibm-granite/granite-4.0-micro

erstellt.

Der Datensatz selbst ist nicht an ein bestimmtes Modell gebunden und kann grundsätzlich mit anderen generativen Sprachmodellen verwendet werden.

Voraussetzungen (Beispiel-Skripte)

Die Skripte im Ordner example/ setzen eine funktionierende Python-Umgebung voraus sowie die folgenden Bibliotheken:

  • transformers[torch]
  • peft
  • datasets

Das verwendete Sprachmodell muss lokal verfügbar sein oder beim ersten Start über Hugging Face heruntergeladen werden können.

Die Skripte sind als reproduzierbare Beispiele gedacht und erfordern keine zusätzlichen Frameworks oder Dienste.