Qwen3.5-4B GGUF (Metadata Corrected)
Esta es una versi贸n del modelo Qwen3.5-4B convertida y cuantizada a formato GGUF utilizando llama.cpp.
驴Por qu茅 esta versi贸n?
Generada localmente para garantizar la precisi贸n de la metadata de los 4.21 B de par谩metros. Este modelo representa el "punto dulce" para hardware con 8GB de RAM, ofreciendo una capacidad de razonamiento superior a los modelos menores manteniendo una velocidad usable.
Archivos incluidos
- Q4_K_M: El balance ideal. Permite una ejecuci贸n estable sin agotar la RAM del sistema (~2.51 GiB).
Rendimiento (Benchmark Local)
Resultados obtenidos en un Intel Core i5-4460 @ 3.20GHz utilizando 4 hilos en CPU:
| Model | Size | Params | Backend | Threads | Test | t/s |
|---|---|---|---|---|---|---|
| qwen35 4B Q4_K_M | 2.51 GiB | 4.21 B | CPU | 4 | pp512 | 22.22 卤 0.02 |
| qwen35 4B Q4_K_M | 2.51 GiB | 4.21 B | CPU | 4 | tg128 | 4.86 卤 0.01 |
Notas de Hardware
En el i5-4460, este modelo genera texto a una velocidad de lectura humana (~5 tokens/s), lo que lo hace ideal para asistentes locales.
Instrucciones de uso
./llama-cli -m Qwen3.5-4B-MIO-Q4_K_M.gguf -p "Escribe un correo formal pidiendo vacaciones" -n 256
- Downloads last month
- 107
Hardware compatibility
Log In to add your hardware
4-bit
8-bit
16-bit