luctensorflow commited on
Commit
0231199
·
verified ·
1 Parent(s): 0f8fcb2

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +43 -3
README.md CHANGED
@@ -1,8 +1,33 @@
1
- ---
2
  license: apache-2.0
3
- ---
4
- # Modello Fine-Tunato MT5
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
5
 
 
 
6
  Questo modello si basa su **MT5**, un modello pre-addestrato di **Google**, che è stato fine-tunato utilizzando un dataset personalizzato per [scopo specifico]. Il modello originale MT5 è disponibile sotto la **licenza Apache 2.0**.
7
 
8
  ## Licenza del modello fine-tunato
@@ -13,3 +38,18 @@ Questo modello è attualmente **sperimentale**. Le sue performance potrebbero no
13
 
14
  ## Attribuzioni
15
  Il modello si basa su **MT5** di **Google**. Il codice originale è disponibile su [Google Research GitHub](https://github.com/google-research/mt5).
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  license: apache-2.0
2
+ tags:
3
+ - mt5
4
+ - fine-tuned
5
+ - text-classification
6
+ - summarization
7
+ - multi-lingual
8
+ language:
9
+ - en
10
+ - it
11
+ - es
12
+ - de
13
+ datasets:
14
+ - custom_dataset
15
+ metrics:
16
+ - accuracy
17
+ - f1
18
+ - bleu
19
+ pipeline_tag: text-classification
20
+ base_model: google/mt5-small
21
+ model_type: mt5
22
+ library_name: transformers
23
+ eval_results:
24
+ - accuracy: 0.85
25
+ - f1: 0.87
26
+ - bleu: 0.75
27
+ new_version: true
28
 
29
+ # Descrizione
30
+ # Modello Fine-Tunato MT5
31
  Questo modello si basa su **MT5**, un modello pre-addestrato di **Google**, che è stato fine-tunato utilizzando un dataset personalizzato per [scopo specifico]. Il modello originale MT5 è disponibile sotto la **licenza Apache 2.0**.
32
 
33
  ## Licenza del modello fine-tunato
 
38
 
39
  ## Attribuzioni
40
  Il modello si basa su **MT5** di **Google**. Il codice originale è disponibile su [Google Research GitHub](https://github.com/google-research/mt5).
41
+
42
+ ## Come usare il modello
43
+ Per usare il modello con Hugging Face `transformers`:
44
+
45
+ ```python
46
+ from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
47
+
48
+ model_name = "luctensorflow/mt-topics"
49
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
50
+ model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
51
+
52
+ input_text = "Qual è la capitale d'Italia?"
53
+ inputs = tokenizer(input_text, return_tensors="pt")
54
+ outputs = model.generate(**inputs)
55
+ print(tokenizer.decode(outputs[0], skip_special_tokens=True))