Barcenas 0.8b

Basado en Qwen 3.5 0.8b y entrenado con el dataset Barcenas de Cervantes

El objetivo es hacer un LLM que tenga mejores capacidades en español y que puede correr en casi cualquier dispositivo

Para medir la efectividad del entrenamiento y validar mi teoria use BBS 3

Los resultados fueron mixtos, algunos test como México, Argentina, Colombia fueron superiores, España quedo igual y bajo su rendmiento en Cuba y Chile

Creo que aún puedo crear mejores recursos en español para conseguir mejores resultados, pero este es un buen inicio, espero pronto nuevas mejoras


Barcenas 0.8b

Based on Qwen 3.5 0.8b and trained with the Barcenas dataset from Cervantes

The goal is to create a Language Learning Module (LLM) with improved Spanish capabilities that can run on almost any device.

To measure the effectiveness of the training and validate my theory, I used BBS 3.

The results were mixed. Some tests, such as those for Mexico, Argentina, and Colombia, performed better, Spain remained the same, and its performance declined in Cuba and Chile.

I believe I can still create better resources in Spanish to achieve even better results, but this is a good start. I hope for further improvements soon.

Made with ❤️ in Guadalupe, Nuevo Leon, Mexico 🇲🇽

Downloads last month
76
Safetensors
Model size
0.9B params
Tensor type
F32
·
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Danielbrdz/Barcenas-0.8b

Finetuned
(164)
this model
Quantizations
1 model

Dataset used to train Danielbrdz/Barcenas-0.8b