Update README.md
Browse files
README.md
CHANGED
|
@@ -75,11 +75,11 @@ Il modello è addestrato per **generare esclusivamente le risposte dell’assist
|
|
| 75 |
```text
|
| 76 |
<|user|> ... <|sep|> → label = -100
|
| 77 |
<|assistant|> ... <|sep|> → label = token_id
|
| 78 |
-
|
| 79 |
|
| 80 |
---
|
| 81 |
|
| 82 |
-
🧩 Parametri di training
|
| 83 |
|
| 84 |
Parametro Valore
|
| 85 |
|
|
@@ -99,7 +99,7 @@ Save best model ✅
|
|
| 99 |
|
| 100 |
---
|
| 101 |
|
| 102 |
-
⚠️ Avvertenze e limitazioni
|
| 103 |
|
| 104 |
microDAC è un modello sperimentale, soggetto a miglioramenti futuri.
|
| 105 |
|
|
@@ -111,7 +111,7 @@ Non adatto a contenuti sensibili o critici.
|
|
| 111 |
|
| 112 |
---
|
| 113 |
|
| 114 |
-
🚀 Uso previsto
|
| 115 |
|
| 116 |
- Chatbot leggeri e assistenti in lingua italiana
|
| 117 |
|
|
@@ -125,14 +125,14 @@ Nota: mantenere input sotto i 2 000 token per risultati ottimali.
|
|
| 125 |
|
| 126 |
---
|
| 127 |
|
| 128 |
-
🧰 Installazione
|
| 129 |
|
| 130 |
pip install transformers torch
|
| 131 |
|
| 132 |
|
| 133 |
---
|
| 134 |
|
| 135 |
-
🧪 Esempio di utilizzo in Python
|
| 136 |
|
| 137 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 138 |
import torch
|
|
@@ -149,7 +149,7 @@ print(tokenizer.decode(outputs[0], skip_special_tokens=True))
|
|
| 149 |
|
| 150 |
---
|
| 151 |
|
| 152 |
-
🔗 Integrazione consigliata
|
| 153 |
|
| 154 |
Applicazioni mobile o embedded: basso consumo e rapidità.
|
| 155 |
|
|
|
|
| 75 |
```text
|
| 76 |
<|user|> ... <|sep|> → label = -100
|
| 77 |
<|assistant|> ... <|sep|> → label = token_id
|
| 78 |
+
```
|
| 79 |
|
| 80 |
---
|
| 81 |
|
| 82 |
+
## 🧩 Parametri di training
|
| 83 |
|
| 84 |
Parametro Valore
|
| 85 |
|
|
|
|
| 99 |
|
| 100 |
---
|
| 101 |
|
| 102 |
+
## ⚠️ Avvertenze e limitazioni
|
| 103 |
|
| 104 |
microDAC è un modello sperimentale, soggetto a miglioramenti futuri.
|
| 105 |
|
|
|
|
| 111 |
|
| 112 |
---
|
| 113 |
|
| 114 |
+
## 🚀 Uso previsto
|
| 115 |
|
| 116 |
- Chatbot leggeri e assistenti in lingua italiana
|
| 117 |
|
|
|
|
| 125 |
|
| 126 |
---
|
| 127 |
|
| 128 |
+
## 🧰 Installazione
|
| 129 |
|
| 130 |
pip install transformers torch
|
| 131 |
|
| 132 |
|
| 133 |
---
|
| 134 |
|
| 135 |
+
## 🧪 Esempio di utilizzo in Python
|
| 136 |
|
| 137 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 138 |
import torch
|
|
|
|
| 149 |
|
| 150 |
---
|
| 151 |
|
| 152 |
+
## 🔗 Integrazione consigliata
|
| 153 |
|
| 154 |
Applicazioni mobile o embedded: basso consumo e rapidità.
|
| 155 |
|