library_name: peft
license: apache-2.0
base_model: mistralai/Mistral-Small-3.2-24B-Instruct-2506
tags:
- unsloth
- base_model:adapter:mistralai/Mistral-Small-3.2-24B-Instruct-2506
- lora
- transformers
pipeline_tag: text-generation
model-index:
- name: jacob-24b
results: []
language:
- de
Hinweis: Dies ist die Prod-Version vom Jacob 24b-Sprachmodell, also die Version, die von Servern sofort für die Nutzung in der Cloud gepullt wird. Sie beinhaltet nur eine auf Q4 quantisierte GGUF-Datei. Das Haupt-Repository befindet sich hier.
Ich stelle vor: Jacob 24b, das Flagschiff-Sprachmodell im Stil von "Leichter Sprache"; neu, vielseitig und mehr als ausreichend für alles, was die Zielgruppe Leichter Sprache benötigt.
Es basiert auf Mistral Small 3.2 und wurde mit Hilfe von LoRA-Fine-Tuning auf einem synthetischen Datensatz von Gesprächen trainiert.
Das Modell...
- hat 24 Milliarden Parameter (davon ~92 Mio. als LoRA)
- ist in 16-Bit-Präzision verfügbar
- kann sowohl Text als auch Bilder verarbeiten (Multimodal)
- kann Tools aufrufen (Tool-Use), um externe Aufgaben zu erledigen
- nutzt das Mistral-Chat-Template
- ist optimiert für die Erzeugung von leicht verständlichem Text im Stil von "Leichter Sprache"
Trainingsdetails
Trainiert wurde das Modell für ca. 40 Minuten auf einer einzelnen NVIDIA RTX PRO 6000-GPU mit 96 GB VRAM.
Der genutzte Datensatz ist eine interne, synthetische Sammlung an Konversationen mit nach Qualität gefilterten und der Leichten Sprache stark angenäherten Texten. Es umfasst über 1k+ sich der Leichten Sprache annähernde Gespräche.