Barcenas Náhuatl 4B

Basado en Qwen 3 4B Instruct 2507 y entrenado con el dataset Barcenas Náhuatl.

El objetivo de este LLM es tener un modelo pequeño que se pueda ejecutar en la mayoría de equipos y tenga la capacidad de más o menos escribir náhuatl.

Todo esto es posible gracias al dataset Barcenas Náhuatl, hecho por un servidor, que contiene 100,000 ejemplos de español a náhuatl clásico.

Usando el pequeño benchmark que realicé para evaluar el náhuatl de un LLM, el modelo sin fine-tuning sacó un 14.9, mientras que esta versión refinada sacó un 33.9, prácticamente igualando a Kimi K2 Instruct 0905, pero con un tamaño mucho menor.


Barcenas Nahuatl 4B

Based on Qwen 3 4B Instruct 2507 and trained with the Barcenas Náhuatl dataset.

The goal of this LLM is to have a small model that can run on most computers and has the ability to more or less write Nahuatl.

All of this is possible thanks to the server-side Barcenas Nahuatl dataset, which contains 100,000 examples of Spanish to Classical Nahuatl.

Using the small benchmark I did to evaluate the language of an LLM, the model without fine-tuning scored a 14.9, while this refined version scored a 33.9, practically equaling the Kimi K2 Instruct 0905, but with a much smaller size.

Made with ❤️ in Guadalupe, Nuevo Leon, Mexico 🇲🇽

Downloads last month
1
Safetensors
Model size
4B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Danielbrdz/BarcenasNahuatl-4b

Finetuned
(797)
this model

Dataset used to train Danielbrdz/BarcenasNahuatl-4b