Qwen3.5-2B GGUF (Metadata Corrected)
Esta es una versi贸n del modelo Qwen3.5-2B convertida y cuantizada a formato GGUF utilizando llama.cpp.
驴Por qu茅 esta versi贸n?
Al igual que otros modelos de la serie, esta versi贸n ha sido generada localmente desde los archivos SafeTensors originales de Hugging Face para asegurar que la metadata interna refleje correctamente los 1.88 B de par谩metros reales, optimizando la asignaci贸n de recursos en motores de inferencia.
Archivos incluidos
- Q8_0: M谩xima fidelidad para un modelo de este tama帽o (~1.86 GiB).
- Q4_K_M: Recomendado para un balance fluido entre inteligencia y velocidad.
Rendimiento (Benchmark Local)
Resultados obtenidos en un Intel Core i5-4460 @ 3.20GHz utilizando 4 hilos en CPU:
| Model | Size | Params | Backend | Threads | Test | t/s |
|---|---|---|---|---|---|---|
| qwen35 2B Q8_0 | 1.86 GiB | 1.88 B | CPU | 4 | pp512 | 56.46 卤 0.25 |
| qwen35 2B Q8_0 | 1.86 GiB | 1.88 B | CPU | 4 | tg128 | 8.36 卤 0.02 |
- pp512: Velocidad de procesamiento del prompt (comprensi贸n).
- tg128: Velocidad de generaci贸n de texto (escritura).
Instrucciones de uso
./llama-cli -m Qwen3.5-2B-MIO-Q8_0.gguf -p "Explica la fotos铆ntesis de forma breve" -n 128
- Downloads last month
- 77
Hardware compatibility
Log In to add your hardware
4-bit
8-bit
16-bit