| # Beispiel: Qualitativer Vergleich von LoRA-Checkpoints | |
| Dieser Ordner enthält ein minimales Beispiel, wie der Datensatz | |
| für explorative Fine-Tuning-Experimente genutzt werden kann. | |
| Das Ziel ist nicht, ein „bestes“ Modell zu finden, sondern | |
| sichtbar zu machen, wie sich Antwortstil, Erklärungstiefe und | |
| Zurückhaltung eines Sprachmodells über verschiedene Trainingsstände verändern. | |
| ## Vorgehen | |
| Das Skript `compare_checkpoints.py`: | |
| - lädt das Basismodell | |
| - lädt anschließend mehrere LoRA-Checkpoints | |
| - stellt allen Varianten dieselbe Frage | |
| - verwendet identische, deterministische Inferenzparameter | |
| - gibt die Antworten nebeneinander aus | |
| Es findet **keine Bewertung** statt. | |
| Die Frage wird bewusst zur Laufzeit eingegeben, um unterschiedliche | |
| Fragetypen vergleichen zu können. | |
| ## Beobachtung statt Optimierung | |
| Beim Vergleich zeigt sich, dass bereits kleine stilistische Anpassungen | |
| große Auswirkungen darauf haben können, | |
| - wie ausführlich ein Modell antwortet | |
| - welche Aspekte es hervorhebt oder auslässt | |
| - wie sicher oder zurückhaltend es formuliert | |
| Insbesondere bei scheinbar einfachen Sachfragen kann sich der | |
| Antwortcharakter stark verändern – bis hin zu verkürzten oder | |
| inhaltlich fragwürdigen Erklärungen. | |
| Dies ist kein Fehler des Modells, sondern eine Folge gezielter | |
| stilistischer Verschiebung. | |
| ## Einordnung | |
| Die hier gezeigten Ergebnisse sollen nicht als Bewertung im Sinne von | |
| „richtig“ oder „falsch“ verstanden werden. | |
| Sie zeigen vielmehr, wie stark sich Antworten eines Sprachmodells durch | |
| stilistische Anpassungen verändern können – selbst bei einfachen, | |
| allgemein bekannten Fragestellungen. | |
| Für technisch versierte Nutzer ist dies meist leicht einzuordnen. | |
| Für Laien kann eine ruhig formulierte, verkürzte oder vereinfachte | |
| Antwort jedoch schnell überzeugender wirken als eine ausführliche, | |
| präzisere Erklärung. | |
| Das Beispiel macht deutlich, dass Sprachmodelle keine Bedeutung | |
| „verstehen“, sondern Antworten auf Basis erlernter Muster erzeugen. | |
| Welche Aspekte betont, vereinfacht oder ausgelassen werden, hängt stark | |
| vom Training und den getroffenen Annahmen ab. | |
| Gerade deshalb ist es wichtig, solche Anpassungen nachvollziehen, | |
| vergleichen und bewusst einzusetzen. | |
| ## Basismodell | |
| Die Beispiel-Skripte in diesem Repository wurden mit dem Sprachmodell | |
| - `ibm-granite/granite-4.0-micro` | |
| erstellt. | |
| Der Datensatz selbst ist nicht an ein bestimmtes Modell gebunden und kann | |
| grundsätzlich mit anderen generativen Sprachmodellen verwendet werden. | |
| ## Voraussetzungen (Beispiel-Skripte) | |
| Die Skripte im Ordner `example/` setzen eine funktionierende | |
| Python-Umgebung voraus sowie die folgenden Bibliotheken: | |
| - `transformers[torch]` | |
| - `peft` | |
| - `datasets` | |
| Das verwendete Sprachmodell muss lokal verfügbar sein oder beim ersten | |
| Start über Hugging Face heruntergeladen werden können. | |
| Die Skripte sind als reproduzierbare Beispiele gedacht und erfordern keine | |
| zusätzlichen Frameworks oder Dienste. |