Cerberus-4B

Cerberus-4B
Cerberus non dormit — veritas sine pretio non datur...

Κέρβερος — ὁ φύλαξ τῆς ἀληθείας

Cerber — strażnik prawdy Cerberus-4B to model językowy z natywnym wsparciem Chain-of-Thought, wykuty w treningu na starannie wyselekcjonowanych danych. Jak jego mityczny imiennik — nie przepuści byle czego. Każda odpowiedź poprzedzona jest rozumowaniem.

⚔️ Geneza

Nikt nie rodzi się strażnikiem. Cerberus przeszedł przez wszystkie poziomy :

Faza LR Scheduler Kroki Cel
I 2e-4 linear 1500 Wstępne opanowanie formatu CoT
II 3e-5 constant 1500 Konsolidacja wiedzy i rozumowania
III 1e-5 cosine 1500 Szlif — precyzja i głębia
IV humanistyczny constant 1500 Dusza — język, finezja, polot

Baza: Qwen3-4B z natywnym tokenem <think> — architektura stworzona do rozumowania.

🧠 Czym jest Cerberus?

  • Polski model CoT — myśli po polsku, rozumuje po polsku, odpowiada po polsku — ale dychy na piwo Ci nie pożyczy 🍺
  • Chain-of-Thought — każda odpowiedź zawiera jawny proces myślowy w bloku <think>
  • Wiedza ogólna + humanistyka — nauki ścisłe, historia, filozofia, sztuka
  • Wykształcony na destylowanych danych — nie ilość, lecz jakość

💬 Format promptowania

<|im_start|>user
Twoje pytanie tutaj<|im_end|>
<|im_start|>assistant
<think>
...rozumowanie modelu...
</think>
Odpowiedź

📦 Dostępne kwantyzacje

Plik Rozmiar Zastosowanie
Cerberus-4b.F16.gguf ~8.0 GB Referencyjna, pełna precyzja
Cerberus-4b.Q8_0.gguf ~4.3 GB Wysoka jakość
Cerberus-4b.Q6_K.gguf ~3.3 GB Zalecana — jakość vs rozmiar
Cerberus-4b.Q5_K_M.gguf ~2.9 GB Dobry balans
Cerberus-4b.Q5_K_S.gguf ~2.7 GB Szybsza wersja Q5
Cerberus-4b.Q4_K_M.gguf ~2.5 GB Codzienny użytek
Cerberus-4b.Q4_K_S.gguf ~2.4 GB Lekka wersja Q4
Cerberus-4b.IQ4_XS.gguf ~2.2 GB Minimalistyczna
Cerberus-4b.Q3_K_M.gguf ~1.9 GB Urządzenia mobilne

🔧 Uruchomienie (llama.cpp)

llama-cli \
  -m Cerberus-4b.Q6_K.gguf \
  -p "<|im_start|>user\nCzym jest absurd według Camusa?<|im_end|>\n<|im_start|>assistant\n" \
  -n 512 \
  --temp 0.7 \
  --repeat-penalty 1.1

🖥️ Wymagania sprzętowe

Kwantyzacja Min. VRAM / RAM
Q4_K_M 4 GB
Q6_K 6 GB
Q8_0 8 GB
F16 16 GB

📊 Dane treningowe

  • Polski CoT — wiedza ogólna, nauki ścisłe, lingwistyka, filozofia (25k rekordów)
  • Polski instruct — ogólny instruct po polsku (13k rekordów)
  • Humanistyczny szlif — sztuka, filozofia, finezja językowa (7k rekordów)

⚠️ Ograniczenia

  • Model trenowany głównie na języku polskim — angielski działa ale nie jest priorytetem
  • Wiedza ograniczona do danych treningowych modelu bazowego (Qwen3-4B)
  • Nie zastępuje profesjonalnej porady medycznej, prawnej ani finansowej

Τότε ἐν τῇ σκιᾷ μαχούμεθα
HattoriHanzo1 — Authentic Shinobi Tech ...

Downloads last month
48
GGUF
Model size
4B params
Architecture
qwen3
Hardware compatibility
Log In to add your hardware

3-bit

4-bit

5-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for HattoriHanzo1/Cerberus-4B-GGUF

Finetuned
Qwen/Qwen3-4B
Quantized
(210)
this model