NeoRoth commited on
Commit
e5df03f
·
verified ·
1 Parent(s): 8eb8f09

Update README: remove GGUF mentions

Browse files
Files changed (1) hide show
  1. README.md +3 -14
README.md CHANGED
@@ -3,40 +3,29 @@ tags:
3
  - voxtral
4
  - quantized
5
  - mlx
6
- - gguf
7
  library_name: mlx
8
  ---
9
 
10
- # Voxtral 3B — Quantized (MLX + GGUF)
11
 
12
- Ce dépôt regroupe des variantes quantifiées du modèle Voxtral 3B pour MLX (Apple Silicon) et GGUF (llama.cpp).
13
 
14
  ## Variantes
15
  - MLX Q4: dossier `mlx-q4/`
16
  - MLX Q8: dossier `mlx-q8/`
17
- - GGUF: dossier `gguf/`
18
 
19
  ## Intégrité (SHA256)
20
  - MLX Q4 `model-00001-of-00001.safetensors`:
21
  - `eec98aef078b3db2c226943d38558d814b10ec387dc5359d333eeed4be5298d2`
22
  - MLX Q8 `model-00001-of-00001.safetensors`:
23
  - `37999e4a9dda52a0aedb593636be6c12e69dd8b8457f15ce48134f88b1ccebd3`
24
- - GGUF `ggml-model-Q4_K_S.gguf`:
25
- - `c9221f05d388848ef117566fb50e835c111f055a6de399e559ec51ba59e7f286`
26
- - GGUF `mmproj-model.gguf`:
27
- - `c25bbc0ce7a8f32665302f6c7db4d215e811180cac1e3b056affe8b6b1057b05`
28
 
29
- ## Utilisation rapide
30
- - MLX (Python):
31
  ```python
32
  from mlx_lm import load
33
  # Exemple: charger les poids quantifiés MLX Q4
34
  model, tokenizer = load("NeoRoth/voxtral-3b-quantized")
35
  ```
36
- - GGUF (llama.cpp):
37
- ```bash
38
- ./main -m gguf/ggml-model-Q4_K_S.gguf -p "Bonjour"
39
- ```
40
 
41
  ## Notes
42
  - Ces fichiers sont des quantifications dérivées du modèle Voxtral 3B. Respectez la licence du modèle d’origine.
 
3
  - voxtral
4
  - quantized
5
  - mlx
 
6
  library_name: mlx
7
  ---
8
 
9
+ # Voxtral 3B — Quantized (MLX)
10
 
11
+ Ce dépôt regroupe des variantes quantifiées du modèle Voxtral 3B pour MLX (Apple Silicon).
12
 
13
  ## Variantes
14
  - MLX Q4: dossier `mlx-q4/`
15
  - MLX Q8: dossier `mlx-q8/`
 
16
 
17
  ## Intégrité (SHA256)
18
  - MLX Q4 `model-00001-of-00001.safetensors`:
19
  - `eec98aef078b3db2c226943d38558d814b10ec387dc5359d333eeed4be5298d2`
20
  - MLX Q8 `model-00001-of-00001.safetensors`:
21
  - `37999e4a9dda52a0aedb593636be6c12e69dd8b8457f15ce48134f88b1ccebd3`
 
 
 
 
22
 
23
+ ## Utilisation rapide (MLX)
 
24
  ```python
25
  from mlx_lm import load
26
  # Exemple: charger les poids quantifiés MLX Q4
27
  model, tokenizer = load("NeoRoth/voxtral-3b-quantized")
28
  ```
 
 
 
 
29
 
30
  ## Notes
31
  - Ces fichiers sont des quantifications dérivées du modèle Voxtral 3B. Respectez la licence du modèle d’origine.