NeoRoth commited on
Commit
a31ef7f
·
verified ·
1 Parent(s): 8882701

Add model card with checksums

Browse files
Files changed (1) hide show
  1. README.md +43 -0
README.md ADDED
@@ -0,0 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - voxtral
4
+ - quantized
5
+ - mlx
6
+ - gguf
7
+ library_name: mlx
8
+ ---
9
+
10
+ # Voxtral 3B — Quantized (MLX + GGUF)
11
+
12
+ Ce dépôt regroupe des variantes quantifiées du modèle Voxtral 3B pour MLX (Apple Silicon) et GGUF (llama.cpp).
13
+
14
+ ## Variantes
15
+ - MLX Q4: dossier `mlx-q4/`
16
+ - MLX Q8: dossier `mlx-q8/`
17
+ - GGUF: dossier `gguf/`
18
+
19
+ ## Intégrité (SHA256)
20
+ - MLX Q4 `model-00001-of-00001.safetensors`:
21
+ - `eec98aef078b3db2c226943d38558d814b10ec387dc5359d333eeed4be5298d2`
22
+ - MLX Q8 `model-00001-of-00001.safetensors`:
23
+ - `37999e4a9dda52a0aedb593636be6c12e69dd8b8457f15ce48134f88b1ccebd3`
24
+ - GGUF `ggml-model-Q4_K_S.gguf`:
25
+ - `c9221f05d388848ef117566fb50e835c111f055a6de399e559ec51ba59e7f286`
26
+ - GGUF `mmproj-model.gguf`:
27
+ - `c25bbc0ce7a8f32665302f6c7db4d215e811180cac1e3b056affe8b6b1057b05`
28
+
29
+ ## Utilisation rapide
30
+ - MLX (Python):
31
+ ```python
32
+ from mlx_lm import load
33
+ # Exemple: charger les poids quantifiés MLX Q4
34
+ model, tokenizer = load("NeoRoth/voxtral-3b-quantized")
35
+ ```
36
+ - GGUF (llama.cpp):
37
+ ```bash
38
+ ./main -m gguf/ggml-model-Q4_K_S.gguf -p "Bonjour"
39
+ ```
40
+
41
+ ## Notes
42
+ - Ces fichiers sont des quantifications dérivées du modèle Voxtral 3B. Respectez la licence du modèle d’origine.
43
+ - Ouvrez une issue si vous repérez un problème (poids manquants, checksum incorrect, etc.).