How to use from
llama.cpp
Install from brew
brew install llama.cpp
# Start a local OpenAI-compatible server with a web UI:
llama-server -hf jacob-ml/jacob-24b:
# Run inference directly in the terminal:
llama-cli -hf jacob-ml/jacob-24b:
Install from WinGet (Windows)
winget install llama.cpp
# Start a local OpenAI-compatible server with a web UI:
llama-server -hf jacob-ml/jacob-24b:
# Run inference directly in the terminal:
llama-cli -hf jacob-ml/jacob-24b:
Use pre-built binary
# Download pre-built binary from:
# https://github.com/ggerganov/llama.cpp/releases
# Start a local OpenAI-compatible server with a web UI:
./llama-server -hf jacob-ml/jacob-24b:
# Run inference directly in the terminal:
./llama-cli -hf jacob-ml/jacob-24b:
Build from source code
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
cmake -B build
cmake --build build -j --target llama-server llama-cli
# Start a local OpenAI-compatible server with a web UI:
./build/bin/llama-server -hf jacob-ml/jacob-24b:
# Run inference directly in the terminal:
./build/bin/llama-cli -hf jacob-ml/jacob-24b:
Use Docker
docker model run hf.co/jacob-ml/jacob-24b:
Quick Links

Jacob Micro banner

Ich stelle vor: Jacob 24b, das Flagschiff-Sprachmodell im Stil von "Leichter Sprache"; neu, vielseitig und ausreichend für alles, was die Zielgruppe Leichter Sprache benötigt.

Es basiert auf Mistral Small 3.2 und wurde mit Hilfe von LoRA-Fine-Tuning auf einem synthetischen Datensatz von Gesprächen trainiert.

Das Modell...

  • hat 24 Milliarden Parameter (davon ~92 Mio. als LoRA)
  • ist in 16-Bit-Präzision verfügbar
  • kann sowohl Text als auch Bilder verarbeiten (Multimodal)
  • kann Tools aufrufen (Tool-Use), um externe Aufgaben zu erledigen
  • nutzt das Mistral-Chat-Template
  • ist optimiert für die Erzeugung von leicht verständlichem Text im Stil von "Leichter Sprache"

Aufbau des Repositories

Dieses Repository enthält Jacob-24b in zwei verschiedenen Formaten:

  • als merged 16-bit-Modell
  • als puren LoRA-Adapter

Trainingsdetails

Trainiert wurde das Modell für ca. 40 Minuten auf einer einzelnen NVIDIA RTX PRO 6000-GPU mit 96 GB VRAM.

Der genutzte Datensatz ist eine interne, synthetische Sammlung an Konversationen mit nach Qualität gefilterten und der Leichten Sprache stark angenäherten Texten. Es umfasst über 1k+ sich der Leichten Sprache annähernde Gespräche.

Downloads last month
2
GGUF
Model size
24B params
Architecture
llama
Hardware compatibility
Log In to add your hardware

4-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for jacob-ml/jacob-24b