Mattimax commited on
Commit
0b51bf6
·
verified ·
1 Parent(s): 2e415be

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +150 -3
README.md CHANGED
@@ -1,3 +1,150 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ datasets:
4
+ - mlabonne/chessllm
5
+ language:
6
+ - it
7
+ base_model:
8
+ - Mattimax/DACMini-IT
9
+ tags:
10
+ - DAC
11
+ - DATA-AI
12
+ - MINC
13
+ - text-generation-inference
14
+ ---
15
+
16
+ # DACMini-IT-Chess — Model Card
17
+
18
+ ## Italian Model Card
19
+
20
+ ## Panoramica
21
+
22
+ **DACMini-IT-Chess** è una variante sperimentale del modello **DACMini-IT** (109M parametri), un piccolo modello di linguaggio addestrato per la lingua italiana.
23
+ L’obiettivo del progetto è stato verificare la capacità del modello di generalizzare e apprendere competenze specifiche in un dominio strutturato come quello degli **scacchi**, partendo da un dataset dedicato.
24
+
25
+ ---
26
+
27
+ ## Dettagli del modello
28
+
29
+ * **Base model:** [Mattimax/DACMini-IT](https://huggingface.co/Mattimax/DACMini-IT)
30
+ * **Dataset utilizzato:** [mlabonne/chessllm](https://huggingface.co/datasets/mlabonne/chessllm)
31
+ * **Lingua:** Italiano
32
+ * **Dimensione:** 109 milioni di parametri
33
+ * **Licenza:** MIT
34
+ * **Task principale:** Generazione di testo / ragionamento nel dominio scacchistico
35
+
36
+ ---
37
+
38
+ ## Motivazione
39
+
40
+ Il progetto nasce con l’intento di **testare i limiti di adattabilità** di un piccolo modello linguistico italiano a un dominio altamente tecnico.
41
+ Non si tratta di una release di produzione, ma di **un esperimento mirato** per osservare:
42
+
43
+ * se un modello di dimensioni ridotte possa apprendere pattern tattici e strategici;
44
+ * quanto un dataset focalizzato possa migliorare la coerenza nelle risposte relative agli scacchi;
45
+ * l’impatto del fine-tuning su un contesto ristretto rispetto alla conoscenza generale preesistente.
46
+
47
+ ---
48
+
49
+ ## Addestramento
50
+
51
+ Il modello è stato fine-tunato su **mlabonne/chessllm**, un dataset contenente partite, commenti e spiegazioni di mosse.
52
+ L’allenamento è stato condotto in modo leggero, con un focus sull’apprendimento del lessico tecnico e delle strutture logiche tipiche del gioco.
53
+ Scopo primario: **esperimento esplorativo**, non ottimizzazione delle performance.
54
+
55
+ ---
56
+
57
+ ## Risultati attesi
58
+
59
+ * Miglioramento nella comprensione del linguaggio tecnico degli scacchi.
60
+ * Capacità di generare sequenze di mosse coerenti e commenti sensati.
61
+ * Nessuna pretesa di performance da motore scacchistico o di affidabilità strategica.
62
+
63
+ ---
64
+
65
+ ## Limitazioni
66
+
67
+ * Non sostituisce un motore di scacchi come Stockfish o Leela.
68
+ * Le risposte possono contenere imprecisioni tattiche.
69
+ * L’uso va considerato esclusivamente a fini **sperimentali o didattici**.
70
+
71
+ ---
72
+
73
+ ## Conclusioni
74
+
75
+ **DACMini-IT-Chess** rappresenta un piccolo ma interessante passo nel valutare la **specializzazione di modelli di piccola scala** in lingua italiana.
76
+ L’obiettivo principale è stato “provare per vedere se funziona”, esplorando come un modello compatto possa adattarsi a un dominio strutturato come quello degli scacchi, pur mantenendo una base linguistica generale.
77
+
78
+ ---
79
+
80
+ **Autori:** Team DATA-AI
81
+ **Tag:** `#DAC`, `#DATA-AI`, `#MINC`, `#text-generation-inference`
82
+ **Licenza:** MIT
83
+
84
+ ## English Model Card
85
+
86
+ # DACMini-IT-Chess — Model Card
87
+
88
+ ## Overview
89
+
90
+ **DACMini-IT-Chess** is an experimental variant of **DACMini-IT** (109M parameters), a small language model designed for the Italian language.
91
+ The goal of this project was to test whether such a compact model could learn and perform reasoning within a structured domain like **chess**, using a dedicated dataset.
92
+
93
+ ---
94
+
95
+ ## Model Details
96
+
97
+ * **Base model:** [Mattimax/DACMini-IT](https://huggingface.co/Mattimax/DACMini-IT)
98
+ * **Dataset used:** [mlabonne/chessllm](https://huggingface.co/datasets/mlabonne/chessllm)
99
+ * **Language:** Italian
100
+ * **Size:** 109 million parameters
101
+ * **License:** MIT
102
+ * **Primary task:** Text generation / domain reasoning in chess
103
+
104
+ ---
105
+
106
+ ## Motivation
107
+
108
+ This project was created to **test the adaptability limits** of a small Italian language model in a highly technical field.
109
+ It is not a production-ready release, but rather **a focused experiment** aimed at exploring:
110
+
111
+ * whether a small model can learn tactical and strategic patterns;
112
+ * how a specialized dataset can enhance coherence in chess-related outputs;
113
+ * the effect of fine-tuning on a narrow, domain-specific context versus general knowledge.
114
+
115
+ ---
116
+
117
+ ## Training
118
+
119
+ The model was fine-tuned on **mlabonne/chessllm**, a dataset containing chess games, commentary, and move explanations.
120
+ Training was conducted lightly, focusing on learning technical vocabulary and logical structures specific to chess.
121
+ The main goal was **exploration**, not performance optimization.
122
+
123
+ ---
124
+
125
+ ## Expected Outcomes
126
+
127
+ * Improved understanding of chess terminology and structure.
128
+ * Ability to generate coherent move sequences and commentary.
129
+ * No claims of engine-level performance or strategic accuracy.
130
+
131
+ ---
132
+
133
+ ## Limitations
134
+
135
+ * Not a replacement for chess engines like Stockfish or Leela.
136
+ * May produce tactically inaccurate or inconsistent moves.
137
+ * Intended for **experimental or educational** use only.
138
+
139
+ ---
140
+
141
+ ## Conclusion
142
+
143
+ **DACMini-IT-Chess** represents a small yet meaningful step in evaluating **domain specialization for small-scale Italian language models**.
144
+ The project’s goal was simple: to “see if it works” — exploring how a compact model can adapt to a structured and logic-driven field like chess while retaining its general language foundation.
145
+
146
+ ---
147
+
148
+ **Authors:** DATA-AI Team
149
+ **Tags:** `#DAC`, `#DATA-AI`, `#MINC`, `#text-generation-inference`
150
+ **License:** MIT