The dataset viewer is not available for this subset.
Exception: SplitsNotFoundError
Message: The split names could not be parsed from the dataset config.
Traceback: Traceback (most recent call last):
File "/usr/local/lib/python3.12/site-packages/datasets/inspect.py", line 286, in get_dataset_config_info
for split_generator in builder._split_generators(
^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/usr/local/lib/python3.12/site-packages/datasets/packaged_modules/json/json.py", line 91, in _split_generators
pa_table = next(iter(self._generate_tables(**splits[0].gen_kwargs, allow_full_read=False)))[1]
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/usr/local/lib/python3.12/site-packages/datasets/packaged_modules/json/json.py", line 194, in _generate_tables
json_field_paths += find_mixed_struct_types_field_paths(examples)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/usr/local/lib/python3.12/site-packages/datasets/utils/json.py", line 58, in find_mixed_struct_types_field_paths
examples = [x[subfield] for x in content if x[subfield] is not None]
~^^^^^^^^^^
KeyError: 'instruction'
The above exception was the direct cause of the following exception:
Traceback (most recent call last):
File "/src/services/worker/src/worker/job_runners/config/split_names.py", line 65, in compute_split_names_from_streaming_response
for split in get_dataset_split_names(
^^^^^^^^^^^^^^^^^^^^^^^^
File "/usr/local/lib/python3.12/site-packages/datasets/inspect.py", line 340, in get_dataset_split_names
info = get_dataset_config_info(
^^^^^^^^^^^^^^^^^^^^^^^^
File "/usr/local/lib/python3.12/site-packages/datasets/inspect.py", line 291, in get_dataset_config_info
raise SplitsNotFoundError("The split names could not be parsed from the dataset config.") from err
datasets.inspect.SplitsNotFoundError: The split names could not be parsed from the dataset config.Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.
Dataset Card for Style Adjustment (DE)
Dataset Summary
Ein kleiner, deutschsprachiger Datensatz zur Erprobung stilistischer Anpassungen bei Sprachmodellen. Seit Version 3 enthält er neben einzelnen Frage–Antwort-Paaren auch mehrstufige Dialoge im Mistral-Instruct-Format.
Dataset Details
Dataset Description
Dieser Datensatz ist ein kleiner, deutschsprachiger Korpus. Er dient der Erprobung von Fine-Tuning-Ansätzen und nicht der Wissensvermittlung oder Leistungsbewertung.
Im Mittelpunkt steht die Frage, wie sich Antwortstil, Erklärungstiefe und Zurückhaltung eines Modells durch gezielte, aber begrenzte Trainingsimpulse verändern lassen.
Seit Version 3 wird eine zweite Strukturebene erprobt: mehrstufige Dialoge. Diese sollen dem Modell beibringen, Kontext über mehrere Gesprächsrunden zu halten — und unter Druck nicht nachzugeben oder in Erklärungsmuster zu verfallen.
- Curated by: Sebastian Elsner
- Language(s) (NLP): German
- License: MIT
Uses
Direct Use
Der Datensatz eignet sich für explorative Fine-Tuning-Experimente mit generativen Sprachmodellen, insbesondere für stilistische Anpassungen mittels LoRA. Er kann genutzt werden, um unterschiedliche Trainingsstärken zu vergleichen und qualitative Veränderungen im Antwortverhalten zu beobachten.
Out-of-Scope Use
Der Datensatz ist nicht geeignet für:
- Wissensaufbau oder Faktenlernen
- Benchmarking oder Leistungsbewertung
- Sicherheits-, Alignment- oder Moderationsaufgaben
Dataset Structure
Der Datensatz liegt im JSONL-Format vor und unterstützt ab Version 3 zwei Strukturen:
Single-turn (bisheriges Format):
- 'id': eindeutige Kennung
- 'category': grobe thematische Einordnung
- 'instruction': Eingabefrage
- 'response': Antworttext
Multi-turn Dialog (neu ab Version 3):
- 'id': eindeutige Kennung
- 'category': immer 'dialog'
- 'turns': Liste von Gesprächsrunden mit 'role' ('user' oder 'assistant') und 'content'
Beide Formate können in derselben JSONL-Datei koexistieren. Das Trainingsscript erkennt sie automatisch.
Ältere Versionen bleiben zur Referenz und zur Sicherstellung der Reproduzierbarkeit im Repository erhalten.
Versionsgeschichte
Version 4 (2026-03-13)
- Erweiterung des Datensatzes auf 1500 Einträge
- Neue Themenbereiche: Alltag, Ironie, Natur, Physik, Mathematik, Geschichte, Sprache
- LoRA-r von 1 auf 2 erhöht
- Beobachtung: Kassandra sagt weniger als sie könnte – und trifft damit öfter als Mistral:7B mit allem was es hat.
- Status: vorerst Final
Version 3 (2026-02-22)
- Einführung des Multi-turn Dialog-Formats
- 50 neue Dialoge in drei Domänen: Aussage stehen lassen, Druck aushalten, Widerspruch ohne Kommentar
- Grundlegende Überarbeitung des Trainingsscripts: Schema-konfliktfreies Laden, manuelles Mistral-Instruct-Format, robuste Span-Erkennung für Assistant-Labels
- Beobachtung: Das Plädoyer am Ende von Antworten entfällt. Aufzählungen werden kürzer. Die Richtung ist erkennbar, aber noch nicht präzise.
Version 2 (2026-02-16)
- Erweiterung des Datensatzes auf 407 Einträge
- Einführung von Evaluation gegen Mistral 7B, Qwen 2.5 7B und Granite 3.3 8B
- Optimierung der Trainingsparameter: cosine scheduler, warmup, grad_norm als primärer Indikator
- Identifikation von Checkpoint 42 als konsistenter Sweet Spot
Version 1 (2026-02-06)
- Erster Datensatz, 379 Einträge
- Einzelne Frage–Antwort-Paare, manuell kuratiert
- Grundlegendes LoRA-Training auf Mistral 7B Instruct v0.3
Dataset Creation
Curation Rationale
Der Datensatz entstand im Rahmen eines offenen, explorativen Prozesses. Ausgangspunkt war die Frage, ob sich nüchterne Sprachmodelle durch kleine, konsistente stilistische Anpassungen zugänglicher machen lassen — ohne sie zu vereinfachen oder zu bevormunden.
Das Ziel ist kein Modell das Antworten gibt, sondern eines das Raum lässt. Nicht Wissensinjizierung, sondern Verschiebung der Aufmerksamkeitsgewichtung.
Source Data
Data Collection and Processing
Alle Inhalte wurden manuell erstellt. Es wurden keine externen Datensätze, automatisierten Extraktionen oder Webscraping-Verfahren verwendet.
Who are the source data producers?
Die Texte wurden von einer einzelnen Person erstellt.
Bias, Risks, and Limitations
Der Datensatz ist klein und stilistisch konsistent. Dadurch kann es bei starkem oder langem Fine-Tuning zu einer Überformung des Antwortverhaltens kommen.
Das Multi-turn Format ist experimentell. Die bisherigen Beobachtungen zeigen messbare Verschiebungen, aber noch keine präzise Steuerung. Insbesondere abstrakte Fragen ohne persönlichen Kontext triggern weiterhin Basismodell-Verhalten.
Recommendations
Mit kleinen Lernraten und begrenzten Trainingsläufen beginnen. Checkpoint 42 hat sich als konsistenter Sweet Spot erwiesen. Qualitative Ergebnisse regelmäßig gegen das Basismodell vergleichen — idealerweise in separaten Prozessen auf getrennten GPUs.
Dataset Card Authors
Sebastian Elsner
Dataset Card Contact
- Downloads last month
- 18