Cerberus-4B
Cerberus non dormit — veritas sine pretio non datur...
Κέρβερος — ὁ φύλαξ τῆς ἀληθείας
Cerber — strażnik prawdy Cerberus-4B to model językowy z natywnym wsparciem Chain-of-Thought, wykuty w treningu na starannie wyselekcjonowanych danych. Jak jego mityczny imiennik — nie przepuści byle czego. Każda odpowiedź poprzedzona jest rozumowaniem.
⚔️ Geneza
Nikt nie rodzi się strażnikiem. Cerberus przeszedł przez wszystkie poziomy :
| Faza | LR | Scheduler | Kroki | Cel |
|---|---|---|---|---|
| I | 2e-4 | linear | 1500 | Wstępne opanowanie formatu CoT |
| II | 3e-5 | constant | 1500 | Konsolidacja wiedzy i rozumowania |
| III | 1e-5 | cosine | 1500 | Szlif — precyzja i głębia |
| IV | humanistyczny | constant | 1500 | Dusza — język, finezja, polot |
Baza: Qwen3-4B z natywnym tokenem <think> — architektura stworzona do rozumowania.
🧠 Czym jest Cerberus?
- Polski model CoT — myśli po polsku, rozumuje po polsku, odpowiada po polsku — ale dychy na piwo Ci nie pożyczy 🍺
- Chain-of-Thought — każda odpowiedź zawiera jawny proces myślowy w bloku
<think> - Wiedza ogólna + humanistyka — nauki ścisłe, historia, filozofia, sztuka
- Wykształcony na destylowanych danych — nie ilość, lecz jakość
💬 Format promptowania
<|im_start|>user
Twoje pytanie tutaj<|im_end|>
<|im_start|>assistant
<think>
...rozumowanie modelu...
</think>
Odpowiedź
📦 Dostępne kwantyzacje
| Plik | Rozmiar | Zastosowanie |
|---|---|---|
| Cerberus-4b.F16.gguf | ~8.0 GB | Referencyjna, pełna precyzja |
| Cerberus-4b.Q8_0.gguf | ~4.3 GB | Wysoka jakość |
| Cerberus-4b.Q6_K.gguf | ~3.3 GB | Zalecana — jakość vs rozmiar |
| Cerberus-4b.Q5_K_M.gguf | ~2.9 GB | Dobry balans |
| Cerberus-4b.Q5_K_S.gguf | ~2.7 GB | Szybsza wersja Q5 |
| Cerberus-4b.Q4_K_M.gguf | ~2.5 GB | Codzienny użytek |
| Cerberus-4b.Q4_K_S.gguf | ~2.4 GB | Lekka wersja Q4 |
| Cerberus-4b.IQ4_XS.gguf | ~2.2 GB | Minimalistyczna |
| Cerberus-4b.Q3_K_M.gguf | ~1.9 GB | Urządzenia mobilne |
🔧 Uruchomienie (llama.cpp)
llama-cli \
-m Cerberus-4b.Q6_K.gguf \
-p "<|im_start|>user\nCzym jest absurd według Camusa?<|im_end|>\n<|im_start|>assistant\n" \
-n 512 \
--temp 0.7 \
--repeat-penalty 1.1
🖥️ Wymagania sprzętowe
| Kwantyzacja | Min. VRAM / RAM |
|---|---|
| Q4_K_M | 4 GB |
| Q6_K | 6 GB |
| Q8_0 | 8 GB |
| F16 | 16 GB |
📊 Dane treningowe
- Polski CoT — wiedza ogólna, nauki ścisłe, lingwistyka, filozofia (25k rekordów)
- Polski instruct — ogólny instruct po polsku (13k rekordów)
- Humanistyczny szlif — sztuka, filozofia, finezja językowa (7k rekordów)
⚠️ Ograniczenia
- Model trenowany głównie na języku polskim — angielski działa ale nie jest priorytetem
- Wiedza ograniczona do danych treningowych modelu bazowego (Qwen3-4B)
- Nie zastępuje profesjonalnej porady medycznej, prawnej ani finansowej
Τότε ἐν τῇ σκιᾷ μαχούμεθα
HattoriHanzo1 — Authentic Shinobi Tech ...
- Downloads last month
- 48
Hardware compatibility
Log In to add your hardware
3-bit
4-bit
5-bit
6-bit
8-bit
16-bit