jacob-24b / README.md
mags0ft's picture
clarify training library and language in README
5774a76 verified
metadata
library_name: peft
license: apache-2.0
base_model: mistralai/Mistral-Small-3.2-24B-Instruct-2506
tags:
  - unsloth
  - base_model:adapter:mistralai/Mistral-Small-3.2-24B-Instruct-2506
  - lora
  - transformers
pipeline_tag: text-generation
model-index:
  - name: jacob-24b
    results: []
language:
  - de

Jacob Micro banner

Wir stellen vor: Jacob 24b, das Flagschiff-Sprachmodell im Stil von "Leichter Sprache"; neu, vielseitig und mehr als ausreichend für alles, was unsere Zielgruppe benötigt.

Es basiert auf Mistral Small 3.2 und wurde mit Hilfe von LoRA-Fine-Tuning auf unserem synthetischen Datensatz von Gesprächen trainiert.

Das Modell...

  • hat 24 Milliarden Parameter (davon ~92 Mio. als LoRA)
  • ist in 16-Bit-Präzision verfügbar
  • kann sowohl Text als auch Bilder verarbeiten (Multimodal)
  • kann Tools aufrufen (Tool-Use), um externe Aufgaben zu erledigen
  • nutzt das Mistral-Chat-Template
  • ist optimiert für die Erzeugung von leicht verständlichem Text im Stil von "Leichter Sprache"

Aufbau des Repositories

Dieses Repository enthält Jacob-24b in zwei verschiedenen Formaten:

  • als merged 16-bit-Modell
  • als puren LoRA-Adapter

Trainingsdetails

Trainiert wurde das Modell für ca. 40 Minuten auf einer einzelnen NVIDIA RTX PRO 6000-GPU mit 96 GB VRAM.

Der genutzte Datensatz ist eine interne, synthetische Sammlung an Konversationen mit nach Qualität gefilterten und der Leichten Sprache stark angenäherten Texten. Es umfasst über 1k+ sich der Leichten Sprache annähernde Gespräche.