Mattimax commited on
Commit
e14211b
·
verified ·
1 Parent(s): 128edfb

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +39 -84
README.md CHANGED
@@ -1,108 +1,70 @@
1
- Di seguito trovi il readme.md compilato al meglio, integrando le informazioni fornite e valorizzando i campi del front matter:
2
 
 
 
3
 
4
  ---
5
 
6
- ---
7
- language:
8
- - it
9
- - en
10
- thumbnail: "https://img.shields.io/badge/HuggingFace-Model-orange"
11
- tags:
12
- - multimodal
13
- - ai
14
- license: "Apache-2.0"
15
- datasets:
16
- - "Mattimax/DATA-AI_IT"
17
- metrics:
18
- - "256M params"
19
- - "Inferenze con < 1 GB di RAM GPU"
20
- base_model: "HuggingFaceTB/SmolVLM-256M-Instruct"
21
- ---
22
-
23
- Mattimax/DATA-AI_Smol256M-Instruct
24
-
25
-
26
-
27
-
28
-
29
- ---
30
-
31
- 📜 Licenza
32
-
33
- Il modello è distribuito sotto la licenza Apache 2.0, che consente l’uso commerciale, la modifica, la distribuzione e la sublicenza.
34
-
35
- 📚 Dataset
36
-
37
- Mattimax/DATA-AI_IT
38
-
39
-
40
- 🌍 Lingue Supportate
41
-
42
- it – Italiano
43
-
44
- en – Inglese
45
 
 
 
46
 
47
- 🏗 Modello Base
48
-
49
- HuggingFaceTB/SmolVLM-256M-Instruct
50
-
51
-
52
- 🛠 Libreria Supportata
53
-
54
- 🤗 Transformers
55
 
 
 
56
 
 
 
57
 
58
  ---
59
 
60
- 📝 Descrizione
61
-
62
- "Mattimax/DATA-AI_Smol256M-Instruct" è un modello AI multimodale ottimizzato per l’italiano, sviluppato a partire da "HuggingFaceTB/SmolVLM-256M-Instruct" e perfezionato tramite fine-tuning con il dataset "Mattimax/DATA-AI_IT".
63
 
64
- Il modello è progettato per interpretare e generare contenuti che combinano testo e immagini, garantendo ottime prestazioni anche su dispositivi con risorse limitate. Grazie all’ottimizzazione specifica per la lingua italiana, esso offre risposte accurate e un linguaggio naturale in vari compiti multimodali.
65
 
 
66
 
67
  ---
68
 
69
- 🚀 Caratteristiche Principali
70
-
71
- ✅ Multimodalità – Supporta l’elaborazione congiunta di testo e immagini.
72
- ✅ Compattezza – Solo 256M parametri, con inferenze su immagini che richiedono meno di 1 GB di RAM GPU.
73
- ✅ Ottimizzazione per l’italiano – Addestrato su un dataset curato per migliorare la qualità delle risposte in italiano.
74
- ✅ Efficienza Computazionale – Ideale per applicazioni su hardware a risorse limitate.
75
- ✅ Supporto Open Source – Progettato per democratizzare l’uso dell’IA e promuovere la ricerca libera.
76
 
 
 
 
 
 
77
 
78
  ---
79
 
80
- 🏗 Origini del Modello
81
-
82
- Il modello si basa su HuggingFaceTB/SmolVLM-256M-Instruct, il più leggero tra i modelli multimodali attualmente disponibili.
83
-
84
- SmolVLM-256M-Instruct garantisce un bilanciamento ideale tra performance ed efficienza, permettendo l’elaborazione simultanea di testo e immagini.
85
-
86
- È in grado di operare su hardware con risorse limitate senza compromettere la qualità delle risposte.
87
 
 
88
 
 
 
 
89
 
90
  ---
91
 
92
- 🎯 Applicazioni
93
-
94
- 🔹 Image Captioning – Generazione automatica di descrizioni dettagliate per immagini.
95
- 🔹 Visual Question Answering – Risposte a domande basate sui contenuti visivi.
96
- 🔹 Trascrizione e Traduzione Multimodale – Estrazione e conversione del testo presente nelle immagini.
97
- 🔹 AI su Dispositivi Edge – Soluzione ideale per applicazioni mobile o dispositivi embedded.
98
 
 
 
 
 
99
 
100
  ---
101
 
102
- 🛠 Come Usarlo
103
 
104
- Il modello può essere facilmente caricato tramite 🤗 Transformers:
105
 
 
106
  from transformers import AutoModelForVision2Seq, AutoProcessor
107
  import torch
108
  from PIL import Image
@@ -123,14 +85,7 @@ with torch.no_grad():
123
  # Decodifica la risposta
124
  response = processor.batch_decode(outputs, skip_special_tokens=True)[0]
125
  print("Risposta del modello:", response)
126
-
127
-
128
- ---
129
-
130
  🏁 Conclusioni
131
-
132
- "Mattimax/DATA-AI_Smol256M-Instruct" rappresenta un passo avanti significativo per l’IA multimodale in italiano.
133
- Il modello offre prestazioni solide, è leggero e open source, ed è ideale per un’ampia varietà di applicazioni, soprattutto in contesti dove le risorse hardware sono limitate.
134
-
135
-
136
- ---
 
1
+ # Mattimax/DATA-AI_Smol256M-Instruct
2
 
3
+ ![License: Apache-2.0](https://img.shields.io/badge/License-Apache%202.0-blue.svg)
4
+ ![Hugging Face Model](https://img.shields.io/badge/HuggingFace-Model-orange)
5
 
6
  ---
7
 
8
+ ## 📜 Licenza
9
+ Il modello è distribuito sotto la licenza **Apache 2.0**, che consente l’uso commerciale, la modifica, la distribuzione e la sublicenza.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
10
 
11
+ ## 📚 Dataset
12
+ - [Mattimax/DATA-AI_IT](https://huggingface.co/datasets/Mattimax/DATA-AI_IT)
13
 
14
+ ## 🌍 Lingue Supportate
15
+ - it Italiano
16
+ - en Inglese
 
 
 
 
 
17
 
18
+ ## 🏗 Modello Base
19
+ - [HuggingFaceTB/SmolVLM-256M-Instruct](https://huggingface.co/HuggingFaceTB/SmolVLM-256M-Instruct)
20
 
21
+ ## 🛠 Libreria Supportata
22
+ - 🤗 Transformers
23
 
24
  ---
25
 
26
+ ## 📝 Descrizione
 
 
27
 
28
+ **"Mattimax/DATA-AI_Smol256M-Instruct"** è un modello AI multimodale ottimizzato per l’italiano, basato su **"HuggingFaceTB/SmolVLM-256M-Instruct"** e sottoposto a fine-tuning con il dataset **"Mattimax/DATA-AI_IT"**.
29
 
30
+ Il modello è progettato per interpretare e generare testo in combinazione con immagini, garantendo un'ottima efficienza su dispositivi con risorse limitate. Grazie al fine-tuning specifico per la lingua italiana, offre prestazioni avanzate in compiti multimodali, migliorando l’accuratezza delle risposte e la naturalezza del linguaggio.
31
 
32
  ---
33
 
34
+ ## 🚀 Caratteristiche Principali
 
 
 
 
 
 
35
 
36
+ ✅ **Multimodalità** – Supporta l’elaborazione congiunta di testo e immagini.
37
+ ✅ **Compattezza** – Solo **256M parametri**, con inferenze su immagini che richiedono meno di **1 GB di RAM GPU**.
38
+ ✅ **Ottimizzazione per l’italiano** – Addestrato su un dataset curato per migliorare la qualità delle risposte in italiano.
39
+ ✅ **Efficienza Computazionale** – Perfetto per applicazioni su hardware a risorse limitate.
40
+ ✅ **Supporto Open Source** – Pensato per democratizzare l’uso dell’IA e promuovere la ricerca libera.
41
 
42
  ---
43
 
44
+ ## 🏗 Origini del Modello
 
 
 
 
 
 
45
 
46
+ **[HuggingFaceTB/SmolVLM-256M-Instruct](https://huggingface.co/HuggingFaceTB/SmolVLM-256M-Instruct)** è il modello di base da cui è stato sviluppato **"Mattimax/DATA-AI_Smol256M-Instruct"**.
47
 
48
+ 📌 **SmolVLM-256M-Instruct** è attualmente il modello multimodale più leggero disponibile.
49
+ 📌 Permette l’elaborazione di testo e immagini con un **bilanciamento ideale tra performance ed efficienza**.
50
+ 📌 È in grado di operare su **hardware con risorse limitate** senza sacrificare la qualità delle risposte.
51
 
52
  ---
53
 
54
+ ## 🎯 Applicazioni
 
 
 
 
 
55
 
56
+ 🔹 **Image Captioning** – Generazione automatica di descrizioni dettagliate per immagini.
57
+ 🔹 **Visual Question Answering** – Risposte a domande su contenuti visivi.
58
+ 🔹 **Trascrizione e Traduzione Multimodale** – Estrazione e conversione di testo da immagini.
59
+ 🔹 **AI su Dispositivi Edge** – Perfetto per applicazioni mobile o su dispositivi embedded.
60
 
61
  ---
62
 
63
+ ## 🛠 Come Usarlo
64
 
65
+ Il modello può essere facilmente caricato tramite 🤗 **Transformers**:
66
 
67
+ ```python
68
  from transformers import AutoModelForVision2Seq, AutoProcessor
69
  import torch
70
  from PIL import Image
 
85
  # Decodifica la risposta
86
  response = processor.batch_decode(outputs, skip_special_tokens=True)[0]
87
  print("Risposta del modello:", response)
88
+ ```
 
 
 
89
  🏁 Conclusioni
90
+ ✨ "Mattimax/DATA-AI_Smol256M-Instruct" rappresenta un passo avanti per l’IA multimodale in italiano.
91
+ 💡 Il modello offre prestazioni solide, è leggero ed è open source, perfetto per l’uso in vari contesti.