Dataset Viewer
The dataset viewer is not available for this subset.
Cannot get the split names for the config 'default' of the dataset.
Exception:    SplitsNotFoundError
Message:      The split names could not be parsed from the dataset config.
Traceback:    Traceback (most recent call last):
                File "/usr/local/lib/python3.12/site-packages/datasets/inspect.py", line 286, in get_dataset_config_info
                  for split_generator in builder._split_generators(
                                         ^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/packaged_modules/json/json.py", line 91, in _split_generators
                  pa_table = next(iter(self._generate_tables(**splits[0].gen_kwargs, allow_full_read=False)))[1]
                             ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/packaged_modules/json/json.py", line 194, in _generate_tables
                  json_field_paths += find_mixed_struct_types_field_paths(examples)
                                      ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/utils/json.py", line 58, in find_mixed_struct_types_field_paths
                  examples = [x[subfield] for x in content if x[subfield] is not None]
                                                              ~^^^^^^^^^^
              KeyError: 'instruction'
              
              The above exception was the direct cause of the following exception:
              
              Traceback (most recent call last):
                File "/src/services/worker/src/worker/job_runners/config/split_names.py", line 65, in compute_split_names_from_streaming_response
                  for split in get_dataset_split_names(
                               ^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/inspect.py", line 340, in get_dataset_split_names
                  info = get_dataset_config_info(
                         ^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/inspect.py", line 291, in get_dataset_config_info
                  raise SplitsNotFoundError("The split names could not be parsed from the dataset config.") from err
              datasets.inspect.SplitsNotFoundError: The split names could not be parsed from the dataset config.

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

Dataset Card for Style Adjustment (DE)

Dataset Summary

Ein kleiner, deutschsprachiger Datensatz zur Erprobung stilistischer Anpassungen bei Sprachmodellen. Seit Version 3 enthält er neben einzelnen Frage–Antwort-Paaren auch mehrstufige Dialoge im Mistral-Instruct-Format.

Dataset Details

Dataset Description

Dieser Datensatz ist ein kleiner, deutschsprachiger Korpus. Er dient der Erprobung von Fine-Tuning-Ansätzen und nicht der Wissensvermittlung oder Leistungsbewertung.

Im Mittelpunkt steht die Frage, wie sich Antwortstil, Erklärungstiefe und Zurückhaltung eines Modells durch gezielte, aber begrenzte Trainingsimpulse verändern lassen.

Seit Version 3 wird eine zweite Strukturebene erprobt: mehrstufige Dialoge. Diese sollen dem Modell beibringen, Kontext über mehrere Gesprächsrunden zu halten — und unter Druck nicht nachzugeben oder in Erklärungsmuster zu verfallen.

  • Curated by: Sebastian Elsner
  • Language(s) (NLP): German
  • License: MIT

Uses

Direct Use

Der Datensatz eignet sich für explorative Fine-Tuning-Experimente mit generativen Sprachmodellen, insbesondere für stilistische Anpassungen mittels LoRA. Er kann genutzt werden, um unterschiedliche Trainingsstärken zu vergleichen und qualitative Veränderungen im Antwortverhalten zu beobachten.

Out-of-Scope Use

Der Datensatz ist nicht geeignet für:

  • Wissensaufbau oder Faktenlernen
  • Benchmarking oder Leistungsbewertung
  • Sicherheits-, Alignment- oder Moderationsaufgaben

Dataset Structure

Der Datensatz liegt im JSONL-Format vor und unterstützt ab Version 3 zwei Strukturen:

Single-turn (bisheriges Format):

  • 'id': eindeutige Kennung
  • 'category': grobe thematische Einordnung
  • 'instruction': Eingabefrage
  • 'response': Antworttext

Multi-turn Dialog (neu ab Version 3):

  • 'id': eindeutige Kennung
  • 'category': immer 'dialog'
  • 'turns': Liste von Gesprächsrunden mit 'role' ('user' oder 'assistant') und 'content'

Beide Formate können in derselben JSONL-Datei koexistieren. Das Trainingsscript erkennt sie automatisch.

Ältere Versionen bleiben zur Referenz und zur Sicherstellung der Reproduzierbarkeit im Repository erhalten.

Versionsgeschichte

Version 4 (2026-03-13)

  • Erweiterung des Datensatzes auf 1500 Einträge
  • Neue Themenbereiche: Alltag, Ironie, Natur, Physik, Mathematik, Geschichte, Sprache
  • LoRA-r von 1 auf 2 erhöht
  • Beobachtung: Kassandra sagt weniger als sie könnte – und trifft damit öfter als Mistral:7B mit allem was es hat.
  • Status: vorerst Final

Version 3 (2026-02-22)

  • Einführung des Multi-turn Dialog-Formats
  • 50 neue Dialoge in drei Domänen: Aussage stehen lassen, Druck aushalten, Widerspruch ohne Kommentar
  • Grundlegende Überarbeitung des Trainingsscripts: Schema-konfliktfreies Laden, manuelles Mistral-Instruct-Format, robuste Span-Erkennung für Assistant-Labels
  • Beobachtung: Das Plädoyer am Ende von Antworten entfällt. Aufzählungen werden kürzer. Die Richtung ist erkennbar, aber noch nicht präzise.

Version 2 (2026-02-16)

  • Erweiterung des Datensatzes auf 407 Einträge
  • Einführung von Evaluation gegen Mistral 7B, Qwen 2.5 7B und Granite 3.3 8B
  • Optimierung der Trainingsparameter: cosine scheduler, warmup, grad_norm als primärer Indikator
  • Identifikation von Checkpoint 42 als konsistenter Sweet Spot

Version 1 (2026-02-06)

  • Erster Datensatz, 379 Einträge
  • Einzelne Frage–Antwort-Paare, manuell kuratiert
  • Grundlegendes LoRA-Training auf Mistral 7B Instruct v0.3

Dataset Creation

Curation Rationale

Der Datensatz entstand im Rahmen eines offenen, explorativen Prozesses. Ausgangspunkt war die Frage, ob sich nüchterne Sprachmodelle durch kleine, konsistente stilistische Anpassungen zugänglicher machen lassen — ohne sie zu vereinfachen oder zu bevormunden.

Das Ziel ist kein Modell das Antworten gibt, sondern eines das Raum lässt. Nicht Wissensinjizierung, sondern Verschiebung der Aufmerksamkeitsgewichtung.

Source Data

Data Collection and Processing

Alle Inhalte wurden manuell erstellt. Es wurden keine externen Datensätze, automatisierten Extraktionen oder Webscraping-Verfahren verwendet.

Who are the source data producers?

Die Texte wurden von einer einzelnen Person erstellt.

Bias, Risks, and Limitations

Der Datensatz ist klein und stilistisch konsistent. Dadurch kann es bei starkem oder langem Fine-Tuning zu einer Überformung des Antwortverhaltens kommen.

Das Multi-turn Format ist experimentell. Die bisherigen Beobachtungen zeigen messbare Verschiebungen, aber noch keine präzise Steuerung. Insbesondere abstrakte Fragen ohne persönlichen Kontext triggern weiterhin Basismodell-Verhalten.

Recommendations

Mit kleinen Lernraten und begrenzten Trainingsläufen beginnen. Checkpoint 42 hat sich als konsistenter Sweet Spot erwiesen. Qualitative Ergebnisse regelmäßig gegen das Basismodell vergleichen — idealerweise in separaten Prozessen auf getrennten GPUs.

Dataset Card Authors

Sebastian Elsner

Dataset Card Contact

Downloads last month
18