Add model card with checksums
Browse files
README.md
ADDED
|
@@ -0,0 +1,43 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
tags:
|
| 3 |
+
- voxtral
|
| 4 |
+
- quantized
|
| 5 |
+
- mlx
|
| 6 |
+
- gguf
|
| 7 |
+
library_name: mlx
|
| 8 |
+
---
|
| 9 |
+
|
| 10 |
+
# Voxtral 3B — Quantized (MLX + GGUF)
|
| 11 |
+
|
| 12 |
+
Ce dépôt regroupe des variantes quantifiées du modèle Voxtral 3B pour MLX (Apple Silicon) et GGUF (llama.cpp).
|
| 13 |
+
|
| 14 |
+
## Variantes
|
| 15 |
+
- MLX Q4: dossier `mlx-q4/`
|
| 16 |
+
- MLX Q8: dossier `mlx-q8/`
|
| 17 |
+
- GGUF: dossier `gguf/`
|
| 18 |
+
|
| 19 |
+
## Intégrité (SHA256)
|
| 20 |
+
- MLX Q4 `model-00001-of-00001.safetensors`:
|
| 21 |
+
- `eec98aef078b3db2c226943d38558d814b10ec387dc5359d333eeed4be5298d2`
|
| 22 |
+
- MLX Q8 `model-00001-of-00001.safetensors`:
|
| 23 |
+
- `37999e4a9dda52a0aedb593636be6c12e69dd8b8457f15ce48134f88b1ccebd3`
|
| 24 |
+
- GGUF `ggml-model-Q4_K_S.gguf`:
|
| 25 |
+
- `c9221f05d388848ef117566fb50e835c111f055a6de399e559ec51ba59e7f286`
|
| 26 |
+
- GGUF `mmproj-model.gguf`:
|
| 27 |
+
- `c25bbc0ce7a8f32665302f6c7db4d215e811180cac1e3b056affe8b6b1057b05`
|
| 28 |
+
|
| 29 |
+
## Utilisation rapide
|
| 30 |
+
- MLX (Python):
|
| 31 |
+
```python
|
| 32 |
+
from mlx_lm import load
|
| 33 |
+
# Exemple: charger les poids quantifiés MLX Q4
|
| 34 |
+
model, tokenizer = load("NeoRoth/voxtral-3b-quantized")
|
| 35 |
+
```
|
| 36 |
+
- GGUF (llama.cpp):
|
| 37 |
+
```bash
|
| 38 |
+
./main -m gguf/ggml-model-Q4_K_S.gguf -p "Bonjour"
|
| 39 |
+
```
|
| 40 |
+
|
| 41 |
+
## Notes
|
| 42 |
+
- Ces fichiers sont des quantifications dérivées du modèle Voxtral 3B. Respectez la licence du modèle d’origine.
|
| 43 |
+
- Ouvrez une issue si vous repérez un problème (poids manquants, checksum incorrect, etc.).
|