Update README: remove GGUF mentions
Browse files
README.md
CHANGED
|
@@ -3,40 +3,29 @@ tags:
|
|
| 3 |
- voxtral
|
| 4 |
- quantized
|
| 5 |
- mlx
|
| 6 |
-
- gguf
|
| 7 |
library_name: mlx
|
| 8 |
---
|
| 9 |
|
| 10 |
-
# Voxtral 3B — Quantized (MLX
|
| 11 |
|
| 12 |
-
Ce dépôt regroupe des variantes quantifiées du modèle Voxtral 3B pour MLX (Apple Silicon)
|
| 13 |
|
| 14 |
## Variantes
|
| 15 |
- MLX Q4: dossier `mlx-q4/`
|
| 16 |
- MLX Q8: dossier `mlx-q8/`
|
| 17 |
-
- GGUF: dossier `gguf/`
|
| 18 |
|
| 19 |
## Intégrité (SHA256)
|
| 20 |
- MLX Q4 `model-00001-of-00001.safetensors`:
|
| 21 |
- `eec98aef078b3db2c226943d38558d814b10ec387dc5359d333eeed4be5298d2`
|
| 22 |
- MLX Q8 `model-00001-of-00001.safetensors`:
|
| 23 |
- `37999e4a9dda52a0aedb593636be6c12e69dd8b8457f15ce48134f88b1ccebd3`
|
| 24 |
-
- GGUF `ggml-model-Q4_K_S.gguf`:
|
| 25 |
-
- `c9221f05d388848ef117566fb50e835c111f055a6de399e559ec51ba59e7f286`
|
| 26 |
-
- GGUF `mmproj-model.gguf`:
|
| 27 |
-
- `c25bbc0ce7a8f32665302f6c7db4d215e811180cac1e3b056affe8b6b1057b05`
|
| 28 |
|
| 29 |
-
## Utilisation rapide
|
| 30 |
-
- MLX (Python):
|
| 31 |
```python
|
| 32 |
from mlx_lm import load
|
| 33 |
# Exemple: charger les poids quantifiés MLX Q4
|
| 34 |
model, tokenizer = load("NeoRoth/voxtral-3b-quantized")
|
| 35 |
```
|
| 36 |
-
- GGUF (llama.cpp):
|
| 37 |
-
```bash
|
| 38 |
-
./main -m gguf/ggml-model-Q4_K_S.gguf -p "Bonjour"
|
| 39 |
-
```
|
| 40 |
|
| 41 |
## Notes
|
| 42 |
- Ces fichiers sont des quantifications dérivées du modèle Voxtral 3B. Respectez la licence du modèle d’origine.
|
|
|
|
| 3 |
- voxtral
|
| 4 |
- quantized
|
| 5 |
- mlx
|
|
|
|
| 6 |
library_name: mlx
|
| 7 |
---
|
| 8 |
|
| 9 |
+
# Voxtral 3B — Quantized (MLX)
|
| 10 |
|
| 11 |
+
Ce dépôt regroupe des variantes quantifiées du modèle Voxtral 3B pour MLX (Apple Silicon).
|
| 12 |
|
| 13 |
## Variantes
|
| 14 |
- MLX Q4: dossier `mlx-q4/`
|
| 15 |
- MLX Q8: dossier `mlx-q8/`
|
|
|
|
| 16 |
|
| 17 |
## Intégrité (SHA256)
|
| 18 |
- MLX Q4 `model-00001-of-00001.safetensors`:
|
| 19 |
- `eec98aef078b3db2c226943d38558d814b10ec387dc5359d333eeed4be5298d2`
|
| 20 |
- MLX Q8 `model-00001-of-00001.safetensors`:
|
| 21 |
- `37999e4a9dda52a0aedb593636be6c12e69dd8b8457f15ce48134f88b1ccebd3`
|
|
|
|
|
|
|
|
|
|
|
|
|
| 22 |
|
| 23 |
+
## Utilisation rapide (MLX)
|
|
|
|
| 24 |
```python
|
| 25 |
from mlx_lm import load
|
| 26 |
# Exemple: charger les poids quantifiés MLX Q4
|
| 27 |
model, tokenizer = load("NeoRoth/voxtral-3b-quantized")
|
| 28 |
```
|
|
|
|
|
|
|
|
|
|
|
|
|
| 29 |
|
| 30 |
## Notes
|
| 31 |
- Ces fichiers sont des quantifications dérivées du modèle Voxtral 3B. Respectez la licence du modèle d’origine.
|