Mattimax commited on
Commit
994a648
·
verified ·
1 Parent(s): 4fb271b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +5 -62
README.md CHANGED
@@ -1,13 +1,6 @@
1
- Perfetto 😎
2
- Ecco la versione finale e completa della model card di microDAC, con i badge in stile professionale identico a quello del whitepaper di PicoDAC & PicoDAC-IT:
3
-
4
-
5
  ---
6
 
7
- ---
8
  license: gpl-3.0
9
- datasets:
10
- - Mattimax/Little_ITA_60k
11
  language:
12
  - it
13
  library_name: transformers
@@ -17,7 +10,7 @@ tags:
17
  - DATA-AI
18
  - transformer
19
  - experimental
20
- new_version: Mattimax/microDAC
21
  ---
22
 
23
  # 🧠 microDAC
@@ -104,46 +97,6 @@ Checkpointing ogni 2000 step
104
  Resume automatico ✅
105
  Save best model ✅
106
 
107
-
108
-
109
- ---
110
-
111
- 💻 Compatibilità e ambiente
112
-
113
- OS: Windows / Linux
114
-
115
- GPU consigliata: ≥ 12 GB VRAM
116
-
117
- Framework: Hugging Face Transformers + Datasets
118
-
119
- Precisione: FP16 / BF16 automatica
120
-
121
- Multiprocessing: gestito con if __name__ == "__main__"
122
-
123
-
124
-
125
- ---
126
-
127
- 📦 Output finale
128
-
129
- Alla fine del training, il modello viene salvato in:
130
-
131
- ./microDAC-40M/final/
132
-
133
- Contiene:
134
-
135
- pytorch_model.bin
136
-
137
- config.json
138
-
139
- tokenizer.json
140
-
141
- special_tokens_map.json
142
-
143
- vocab.json
144
-
145
-
146
-
147
  ---
148
 
149
  ⚠️ Avvertenze e limitazioni
@@ -160,11 +113,11 @@ Non adatto a contenuti sensibili o critici.
160
 
161
  🚀 Uso previsto
162
 
163
- Chatbot leggeri e assistenti in lingua italiana
164
 
165
- Prototipi embedded o mobile
166
 
167
- Fine-tuning personalizzati su dataset specifici
168
 
169
 
170
  Nota: mantenere input sotto i 2 000 token per risultati ottimali.
@@ -202,14 +155,4 @@ Applicazioni mobile o embedded: basso consumo e rapidità.
202
 
203
  Sperimentazione NLP: ottimo punto di partenza per LoRA o adattamenti leggeri.
204
 
205
- Dataset sintetici: utile per generare coppie domanda-risposta.
206
-
207
-
208
-
209
- ---
210
-
211
- 📚 Riferimenti
212
-
213
- Autore: [Mattimax](https://huggingface.co/Mattimax)
214
-
215
- Organizzazione: M.INC
 
 
 
 
 
1
  ---
2
 
 
3
  license: gpl-3.0
 
 
4
  language:
5
  - it
6
  library_name: transformers
 
10
  - DATA-AI
11
  - transformer
12
  - experimental
13
+
14
  ---
15
 
16
  # 🧠 microDAC
 
97
  Resume automatico ✅
98
  Save best model ✅
99
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
100
  ---
101
 
102
  ⚠️ Avvertenze e limitazioni
 
113
 
114
  🚀 Uso previsto
115
 
116
+ - Chatbot leggeri e assistenti in lingua italiana
117
 
118
+ - Prototipi embedded o mobile
119
 
120
+ - Fine-tuning personalizzati su dataset specifici
121
 
122
 
123
  Nota: mantenere input sotto i 2 000 token per risultati ottimali.
 
155
 
156
  Sperimentazione NLP: ottimo punto di partenza per LoRA o adattamenti leggeri.
157
 
158
+ Dataset sintetici: utile per generare coppie domanda-risposta.