|
|
--- |
|
|
license: mit |
|
|
datasets: |
|
|
- mlabonne/chessllm |
|
|
language: |
|
|
- it |
|
|
base_model: |
|
|
- Mattimax/DACMini-IT |
|
|
tags: |
|
|
- DAC |
|
|
- DATA-AI |
|
|
- MINC |
|
|
- text-generation-inference |
|
|
--- |
|
|
|
|
|
# DACMini-IT-Chess — Model Card |
|
|
|
|
|
## Italian Model Card |
|
|
|
|
|
## Panoramica |
|
|
|
|
|
**DACMini-IT-Chess** è una variante sperimentale del modello **DACMini-IT** (109M parametri), un piccolo modello di linguaggio addestrato per la lingua italiana. |
|
|
L’obiettivo del progetto è stato verificare la capacità del modello di generalizzare e apprendere competenze specifiche in un dominio strutturato come quello degli **scacchi**, partendo da un dataset dedicato. |
|
|
|
|
|
--- |
|
|
|
|
|
## Dettagli del modello |
|
|
|
|
|
* **Base model:** [Mattimax/DACMini-IT](https://huggingface.co/Mattimax/DACMini-IT) |
|
|
* **Dataset utilizzato:** [mlabonne/chessllm](https://huggingface.co/datasets/mlabonne/chessllm) |
|
|
* **Lingua:** Italiano |
|
|
* **Dimensione:** 109 milioni di parametri |
|
|
* **Licenza:** MIT |
|
|
* **Task principale:** Generazione di testo / ragionamento nel dominio scacchistico |
|
|
|
|
|
--- |
|
|
|
|
|
## Motivazione |
|
|
|
|
|
Il progetto nasce con l’intento di **testare i limiti di adattabilità** di un piccolo modello linguistico italiano a un dominio altamente tecnico. |
|
|
Non si tratta di una release di produzione, ma di **un esperimento mirato** per osservare: |
|
|
|
|
|
* se un modello di dimensioni ridotte possa apprendere pattern tattici e strategici; |
|
|
* quanto un dataset focalizzato possa migliorare la coerenza nelle risposte relative agli scacchi; |
|
|
* l’impatto del fine-tuning su un contesto ristretto rispetto alla conoscenza generale preesistente. |
|
|
|
|
|
--- |
|
|
|
|
|
## Addestramento |
|
|
|
|
|
Il modello è stato fine-tunato su **mlabonne/chessllm**, un dataset contenente partite, commenti e spiegazioni di mosse. |
|
|
L’allenamento è stato condotto in modo leggero, con un focus sull’apprendimento del lessico tecnico e delle strutture logiche tipiche del gioco. |
|
|
Scopo primario: **esperimento esplorativo**, non ottimizzazione delle performance. |
|
|
|
|
|
--- |
|
|
|
|
|
## Risultati attesi |
|
|
|
|
|
* Miglioramento nella comprensione del linguaggio tecnico degli scacchi. |
|
|
* Capacità di generare sequenze di mosse coerenti e commenti sensati. |
|
|
* Nessuna pretesa di performance da motore scacchistico o di affidabilità strategica. |
|
|
|
|
|
--- |
|
|
|
|
|
## Limitazioni |
|
|
|
|
|
* Non sostituisce un motore di scacchi come Stockfish o Leela. |
|
|
* Le risposte possono contenere imprecisioni tattiche. |
|
|
* L’uso va considerato esclusivamente a fini **sperimentali o didattici**. |
|
|
|
|
|
--- |
|
|
|
|
|
## Conclusioni |
|
|
|
|
|
**DACMini-IT-Chess** rappresenta un piccolo ma interessante passo nel valutare la **specializzazione di modelli di piccola scala** in lingua italiana. |
|
|
L’obiettivo principale è stato “provare per vedere se funziona”, esplorando come un modello compatto possa adattarsi a un dominio strutturato come quello degli scacchi, pur mantenendo una base linguistica generale. |
|
|
|
|
|
--- |
|
|
|
|
|
**Autori:** Team DATA-AI |
|
|
**Tag:** `#DAC`, `#DATA-AI`, `#MINC`, `#text-generation-inference` |
|
|
**Licenza:** MIT |
|
|
|
|
|
## English Model Card |
|
|
|
|
|
# DACMini-IT-Chess — Model Card |
|
|
|
|
|
## Overview |
|
|
|
|
|
**DACMini-IT-Chess** is an experimental variant of **DACMini-IT** (109M parameters), a small language model designed for the Italian language. |
|
|
The goal of this project was to test whether such a compact model could learn and perform reasoning within a structured domain like **chess**, using a dedicated dataset. |
|
|
|
|
|
--- |
|
|
|
|
|
## Model Details |
|
|
|
|
|
* **Base model:** [Mattimax/DACMini-IT](https://huggingface.co/Mattimax/DACMini-IT) |
|
|
* **Dataset used:** [mlabonne/chessllm](https://huggingface.co/datasets/mlabonne/chessllm) |
|
|
* **Language:** Italian |
|
|
* **Size:** 109 million parameters |
|
|
* **License:** MIT |
|
|
* **Primary task:** Text generation / domain reasoning in chess |
|
|
|
|
|
--- |
|
|
|
|
|
## Motivation |
|
|
|
|
|
This project was created to **test the adaptability limits** of a small Italian language model in a highly technical field. |
|
|
It is not a production-ready release, but rather **a focused experiment** aimed at exploring: |
|
|
|
|
|
* whether a small model can learn tactical and strategic patterns; |
|
|
* how a specialized dataset can enhance coherence in chess-related outputs; |
|
|
* the effect of fine-tuning on a narrow, domain-specific context versus general knowledge. |
|
|
|
|
|
--- |
|
|
|
|
|
## Training |
|
|
|
|
|
The model was fine-tuned on **mlabonne/chessllm**, a dataset containing chess games, commentary, and move explanations. |
|
|
Training was conducted lightly, focusing on learning technical vocabulary and logical structures specific to chess. |
|
|
The main goal was **exploration**, not performance optimization. |
|
|
|
|
|
--- |
|
|
|
|
|
## Expected Outcomes |
|
|
|
|
|
* Improved understanding of chess terminology and structure. |
|
|
* Ability to generate coherent move sequences and commentary. |
|
|
* No claims of engine-level performance or strategic accuracy. |
|
|
|
|
|
--- |
|
|
|
|
|
## Limitations |
|
|
|
|
|
* Not a replacement for chess engines like Stockfish or Leela. |
|
|
* May produce tactically inaccurate or inconsistent moves. |
|
|
* Intended for **experimental or educational** use only. |
|
|
|
|
|
--- |
|
|
|
|
|
## Conclusion |
|
|
|
|
|
**DACMini-IT-Chess** represents a small yet meaningful step in evaluating **domain specialization for small-scale Italian language models**. |
|
|
The project’s goal was simple: to “see if it works” — exploring how a compact model can adapt to a structured and logic-driven field like chess while retaining its general language foundation. |
|
|
|
|
|
--- |
|
|
|
|
|
**Authors:** DATA-AI Team |
|
|
**Tags:** `#DAC`, `#DATA-AI`, `#MINC`, `#text-generation-inference` |
|
|
**License:** MIT |