Mattimax commited on
Commit
584b4c2
·
verified ·
1 Parent(s): ee5a3de

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +87 -3
README.md CHANGED
@@ -1,3 +1,87 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ datasets:
4
+ - Mattimax/DATA-AI_Conversation_ITA
5
+ language:
6
+ - it
7
+ base_model:
8
+ - Mattimax/DACMini
9
+ library_name: transformers
10
+ tags:
11
+ - DAC
12
+ - DATA-AI
13
+ - data-ai
14
+ ---
15
+
16
+ [![HuggingFace](https://img.shields.io/badge/HuggingFace-Mattimax-brightgreen)](https://huggingface.co/Mattimax)
17
+ [![M.INC](https://img.shields.io/badge/M.INC-Labs-blue)](https://huggingface.co/MINC01)
18
+
19
+ # Mattimax/DACMini-IT
20
+
21
+ ![Logo di DACMini](https://huggingface.co/Mattimax/DACMini/resolve/main/DACMini_Logo/DACMini_Logo.png)
22
+
23
+ * **Autore:** [Mattimax](https://huggingface.co/Mattimax)
24
+ * **Organizzazione:** [M.INC](https://huggingface.co/MINC01)
25
+ * **Licenza:** MIT
26
+
27
+ ---
28
+
29
+ ## Descrizione
30
+
31
+ **DACMini-IT** è un modello di linguaggio compatto e instruction tuned per **chat e dialogo in lingua italiana**.
32
+ Basato sull’architettura **GPT-2 Small (italian adaptation)**, è progettato per essere rapido, leggero e facilmente distribuibile su dispositivi con risorse limitate.
33
+
34
+ Rispetto a DACMini “base”, **DACMini-IT** è addestrato su dataset italiani conversazionali strutturati in formato *user-assistant*, ottimizzando la capacità di seguire istruzioni e gestire conversazioni multi-turno naturali.
35
+
36
+ ---
37
+
38
+ ## Dimensioni e caratteristiche tecniche
39
+
40
+ * **Parametri:** 109M
41
+ * **Architettura:** GPT-2 Small (italian adaptation)
42
+ * **Lunghezza massima del contesto:** 512 token
43
+ * **Numero di strati:** 12
44
+ * **Numero di teste di attenzione:** 12
45
+ * **Dimensione embedding:** 768
46
+ * **Vocabolario:** ~50.000 token
47
+ * **Quantizzazione:** supportata (8-bit / 4-bit opzionale con `bitsandbytes`)
48
+
49
+ ---
50
+
51
+ ## Dataset di addestramento
52
+
53
+ Addestrato su **Mattimax/DATA-AI_Conversation_ITA**, un dataset italiano di dialoghi instruction tuned, contenente coppie *prompt-response* strutturate per favorire risposte coerenti, naturali e grammaticalmente corrette.
54
+
55
+ ---
56
+
57
+ ## Obiettivi
58
+
59
+ * Chatbot in lingua italiana con capacità di seguire istruzioni.
60
+ * Risposte concise, chiare e naturali in contesti multi-turno.
61
+ * Applicazioni leggere o offline dove la dimensione del modello è un vincolo.
62
+
63
+ ---
64
+
65
+ ## Avvertenze e limitazioni
66
+
67
+ * Modello **sperimentale**: può produrre errori logici o risposte non pertinenti.
68
+ * Non addestrato su temi sensibili o contenuti specialistici.
69
+ * Prestazioni limitate su conversazioni molto lunghe o prompt complessi.
70
+ * Non destinato ad usi commerciali senza ulteriore validazione.
71
+
72
+ ---
73
+
74
+ ## Uso consigliato
75
+
76
+ * Applicazioni chatbot leggere o offline in italiano.
77
+ * Prototipazione e test di pipeline NLP italiane.
78
+ * Generazione di risposte sintetiche e dataset per training o valutazione.
79
+
80
+ ---
81
+
82
+ ## Referenze
83
+
84
+ * Dataset: [Mattimax/DATA-AI_Conversation_ITA](https://huggingface.co/datasets/Mattimax/DATA-AI_Conversation_ITA)
85
+ * Modello di base: [DACMini / GroNLP/gpt2-small-italian](https://huggingface.co/Mattimax/DACMini)
86
+ * Organizzazione: [M.INC](https://huggingface.co/MINC01)
87
+ * Collezione: [Little_DAC Collection](https://huggingface.co/collections/Mattimax/little-dac-collection-68e11d19a5949d08e672b312)