Qwen3.5-4B GGUF (Metadata Corrected)

Esta es una versi贸n del modelo Qwen3.5-4B convertida y cuantizada a formato GGUF utilizando llama.cpp.

驴Por qu茅 esta versi贸n?

Generada localmente para garantizar la precisi贸n de la metadata de los 4.21 B de par谩metros. Este modelo representa el "punto dulce" para hardware con 8GB de RAM, ofreciendo una capacidad de razonamiento superior a los modelos menores manteniendo una velocidad usable.

Archivos incluidos

  • Q4_K_M: El balance ideal. Permite una ejecuci贸n estable sin agotar la RAM del sistema (~2.51 GiB).

Rendimiento (Benchmark Local)

Resultados obtenidos en un Intel Core i5-4460 @ 3.20GHz utilizando 4 hilos en CPU:

Model Size Params Backend Threads Test t/s
qwen35 4B Q4_K_M 2.51 GiB 4.21 B CPU 4 pp512 22.22 卤 0.02
qwen35 4B Q4_K_M 2.51 GiB 4.21 B CPU 4 tg128 4.86 卤 0.01

Notas de Hardware

En el i5-4460, este modelo genera texto a una velocidad de lectura humana (~5 tokens/s), lo que lo hace ideal para asistentes locales.

Instrucciones de uso

./llama-cli -m Qwen3.5-4B-MIO-Q4_K_M.gguf -p "Escribe un correo formal pidiendo vacaciones" -n 256
Downloads last month
107
GGUF
Model size
4B params
Architecture
qwen35
Hardware compatibility
Log In to add your hardware

4-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support

Model tree for migarcoes/Qwen3.5-4B

Finetuned
Qwen/Qwen3.5-4B
Quantized
(83)
this model