How to use from
llama.cpp
Install from brew
brew install llama.cpp
# Start a local OpenAI-compatible server with a web UI:
llama-server -hf Slaxikov/VokiLLM:
# Run inference directly in the terminal:
llama-cli -hf Slaxikov/VokiLLM:
Install from WinGet (Windows)
winget install llama.cpp
# Start a local OpenAI-compatible server with a web UI:
llama-server -hf Slaxikov/VokiLLM:
# Run inference directly in the terminal:
llama-cli -hf Slaxikov/VokiLLM:
Use pre-built binary
# Download pre-built binary from:
# https://github.com/ggerganov/llama.cpp/releases
# Start a local OpenAI-compatible server with a web UI:
./llama-server -hf Slaxikov/VokiLLM:
# Run inference directly in the terminal:
./llama-cli -hf Slaxikov/VokiLLM:
Build from source code
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
cmake -B build
cmake --build build -j --target llama-server llama-cli
# Start a local OpenAI-compatible server with a web UI:
./build/bin/llama-server -hf Slaxikov/VokiLLM:
# Run inference directly in the terminal:
./build/bin/llama-cli -hf Slaxikov/VokiLLM:
Use Docker
docker model run hf.co/Slaxikov/VokiLLM:
Quick Links

VokiLLM-0.5B-Instruct (GGUF)

Готовые файлы модели VokiLLM-0.5B-Instruct в формате GGUF: FP16 и квантовки для llama.cpp/LM Studio и других совместимых рантаймов.

Кратко

  • Архитектура: qwen2
  • Размер: ~0.5B (лейбл в GGUF: 630M)
  • Контекст: 8192
  • Назначение: Instruct / чат

Файлы

Файлы лежат в корне репозитория. В таблице ниже названия — это ссылки на скачивание.

Как запустить

llama.cpp (CLI)

Пример (Windows):

llama-cli.exe -m "vokillm-0.5b-instruct-q4_k_m.gguf" -p "Привет! Коротко объясни, что такое GGUF."

LM Studio

  • Открой LM Studio → ModelsAdd model → выбери нужный *.gguf
  • Рекомендуемый стартовый вариант: q4_k_m (баланс скорость/качество)

Про квантовки IQ2/IQ1

Квантовки IQ2_* и IQ1_S сделаны с importance matrix (imatrix) (это повышает качество для “экстремальных” квантовок).

Downloads last month
355
GGUF
Model size
0.6B params
Architecture
qwen2
Hardware compatibility
Log In to add your hardware

1-bit

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support