VokiLLM / README.md
Slaxikov's picture
Update README.md
fc0f327 verified
---
license: apache-2.0
language:
- ru
tags:
- gguf
- instruct
---
# VokiLLM-0.5B-Instruct (GGUF)
Готовые файлы модели **VokiLLM-0.5B-Instruct** в формате **GGUF**: FP16 и квантовки для `llama.cpp`/LM Studio и других совместимых рантаймов.
## Кратко
- **Архитектура**: `qwen2`
- **Размер**: ~0.5B (лейбл в GGUF: `630M`)
- **Контекст**: 8192
- **Назначение**: Instruct / чат
## Файлы
Файлы лежат **в корне репозитория**. В таблице ниже названия — это **ссылки на скачивание**.
| Файл | Квантование | Размер (bytes) |
|---|---:|---:|
| [`vokillm-0.5b-instruct-fp16.gguf`](vokillm-0.5b-instruct-fp16.gguf?download=true) | FP16 | 1266425856 |
| [`vokillm-0.5b-instruct-q8_0.gguf`](vokillm-0.5b-instruct-q8_0.gguf?download=true) | Q8_0 | 675710976 |
| [`vokillm-0.5b-instruct-q6_k.gguf`](vokillm-0.5b-instruct-q6_k.gguf?download=true) | Q6_K | 650379296 |
| [`vokillm-0.5b-instruct-q5_k_m.gguf`](vokillm-0.5b-instruct-q5_k_m.gguf?download=true) | Q5_K_M | 522186752 |
| [`vokillm-0.5b-instruct-q5_1.gguf`](vokillm-0.5b-instruct-q5_1.gguf?download=true) | Q5_1 | 521348096 |
| [`vokillm-0.5b-instruct-q5_k_s.gguf`](vokillm-0.5b-instruct-q5_k_s.gguf?download=true) | Q5_K_S | 514810880 |
| [`vokillm-0.5b-instruct-q5_0.gguf`](vokillm-0.5b-instruct-q5_0.gguf?download=true) | Q5_0 | 490475520 |
| [`vokillm-0.5b-instruct-q4_k_m.gguf`](vokillm-0.5b-instruct-q4_k_m.gguf?download=true) | Q4_K_M | 491400192 |
| [`vokillm-0.5b-instruct-q4_k_s.gguf`](vokillm-0.5b-instruct-q4_k_s.gguf?download=true) | Q4_K_S | 479064064 |
| [`vokillm-0.5b-instruct-q4_1.gguf`](vokillm-0.5b-instruct-q4_1.gguf?download=true) | Q4_1 | 459602944 |
| [`vokillm-0.5b-instruct-q3_k_l.gguf`](vokillm-0.5b-instruct-q3_k_l.gguf?download=true) | Q3_K_L | 445933568 |
| [`vokillm-0.5b-instruct-iq4_nl.gguf`](vokillm-0.5b-instruct-iq4_nl.gguf?download=true) | IQ4_NL | 430880768 |
| [`vokillm-0.5b-instruct-q4_0.gguf`](vokillm-0.5b-instruct-q4_0.gguf?download=true) | Q4_0 | 428730368 |
| [`vokillm-0.5b-instruct-iq4_xs.gguf`](vokillm-0.5b-instruct-iq4_xs.gguf?download=true) | IQ4_XS | 428020736 |
| [`vokillm-0.5b-instruct-q3_k_m.gguf`](vokillm-0.5b-instruct-q3_k_m.gguf?download=true) | Q3_K_M | 432041984 |
| [`vokillm-0.5b-instruct-iq3_xxs.gguf`](vokillm-0.5b-instruct-iq3_xxs.gguf?download=true) | IQ3_XXS | 416919296 |
| [`vokillm-0.5b-instruct-iq3_s.gguf`](vokillm-0.5b-instruct-iq3_s.gguf?download=true) | IQ3_S | 415182848 |
| [`vokillm-0.5b-instruct-q2_k.gguf`](vokillm-0.5b-instruct-q2_k.gguf?download=true) | Q2_K | 415182848 |
| [`vokillm-0.5b-instruct-q3_k_s.gguf`](vokillm-0.5b-instruct-q3_k_s.gguf?download=true) | Q3_K_S | 414838784 |
| [`vokillm-0.5b-instruct-iq2_s.gguf`](vokillm-0.5b-instruct-iq2_s.gguf?download=true) | IQ2_S | 402312928 |
| [`vokillm-0.5b-instruct-iq2_xs.gguf`](vokillm-0.5b-instruct-iq2_xs.gguf?download=true) | IQ2_XS | 400985056 |
| [`vokillm-0.5b-instruct-iq2_xxs.gguf`](vokillm-0.5b-instruct-iq2_xxs.gguf?download=true) | IQ2_XXS | 398125024 |
| [`vokillm-0.5b-instruct-iq1_s.gguf`](vokillm-0.5b-instruct-iq1_s.gguf?download=true) | IQ1_S | 392404960 |
## Как запустить
### llama.cpp (CLI)
Пример (Windows):
```bash
llama-cli.exe -m "vokillm-0.5b-instruct-q4_k_m.gguf" -p "Привет! Коротко объясни, что такое GGUF."
```
### LM Studio
- Открой LM Studio → **Models****Add model** → выбери нужный `*.gguf`
- Рекомендуемый стартовый вариант: `q4_k_m` (баланс скорость/качество)
## Про квантовки IQ2/IQ1
Квантовки `IQ2_*` и `IQ1_S` сделаны с **importance matrix (imatrix)** (это повышает качество для “экстремальных” квантовок).