Barcenas Náhuatl 4B
Basado en Qwen 3 4B Instruct 2507 y entrenado con el dataset Barcenas Náhuatl.
El objetivo de este LLM es tener un modelo pequeño que se pueda ejecutar en la mayoría de equipos y tenga la capacidad de más o menos escribir náhuatl.
Todo esto es posible gracias al dataset Barcenas Náhuatl, hecho por un servidor, que contiene 100,000 ejemplos de español a náhuatl clásico.
Usando el pequeño benchmark que realicé para evaluar el náhuatl de un LLM, el modelo sin fine-tuning sacó un 14.9, mientras que esta versión refinada sacó un 33.9, prácticamente igualando a Kimi K2 Instruct 0905, pero con un tamaño mucho menor.
Barcenas Nahuatl 4B
Based on Qwen 3 4B Instruct 2507 and trained with the Barcenas Náhuatl dataset.
The goal of this LLM is to have a small model that can run on most computers and has the ability to more or less write Nahuatl.
All of this is possible thanks to the server-side Barcenas Nahuatl dataset, which contains 100,000 examples of Spanish to Classical Nahuatl.
Using the small benchmark I did to evaluate the language of an LLM, the model without fine-tuning scored a 14.9, while this refined version scored a 33.9, practically equaling the Kimi K2 Instruct 0905, but with a much smaller size.
Made with ❤️ in Guadalupe, Nuevo Leon, Mexico 🇲🇽
- Downloads last month
- 1
Model tree for Danielbrdz/BarcenasNahuatl-4b
Base model
Qwen/Qwen3-4B-Instruct-2507