Update README.md
Browse files
README.md
CHANGED
|
@@ -1,108 +1,70 @@
|
|
| 1 |
-
|
| 2 |
|
|
|
|
|
|
|
| 3 |
|
| 4 |
---
|
| 5 |
|
| 6 |
-
|
| 7 |
-
|
| 8 |
-
- it
|
| 9 |
-
- en
|
| 10 |
-
thumbnail: "https://img.shields.io/badge/HuggingFace-Model-orange"
|
| 11 |
-
tags:
|
| 12 |
-
- multimodal
|
| 13 |
-
- ai
|
| 14 |
-
license: "Apache-2.0"
|
| 15 |
-
datasets:
|
| 16 |
-
- "Mattimax/DATA-AI_IT"
|
| 17 |
-
metrics:
|
| 18 |
-
- "256M params"
|
| 19 |
-
- "Inferenze con < 1 GB di RAM GPU"
|
| 20 |
-
base_model: "HuggingFaceTB/SmolVLM-256M-Instruct"
|
| 21 |
-
---
|
| 22 |
-
|
| 23 |
-
Mattimax/DATA-AI_Smol256M-Instruct
|
| 24 |
-
|
| 25 |
-
|
| 26 |
-
|
| 27 |
-
|
| 28 |
-
|
| 29 |
-
---
|
| 30 |
-
|
| 31 |
-
📜 Licenza
|
| 32 |
-
|
| 33 |
-
Il modello è distribuito sotto la licenza Apache 2.0, che consente l’uso commerciale, la modifica, la distribuzione e la sublicenza.
|
| 34 |
-
|
| 35 |
-
📚 Dataset
|
| 36 |
-
|
| 37 |
-
Mattimax/DATA-AI_IT
|
| 38 |
-
|
| 39 |
-
|
| 40 |
-
🌍 Lingue Supportate
|
| 41 |
-
|
| 42 |
-
it – Italiano
|
| 43 |
-
|
| 44 |
-
en – Inglese
|
| 45 |
|
|
|
|
|
|
|
| 46 |
|
| 47 |
-
|
| 48 |
-
|
| 49 |
-
|
| 50 |
-
|
| 51 |
-
|
| 52 |
-
🛠 Libreria Supportata
|
| 53 |
-
|
| 54 |
-
🤗 Transformers
|
| 55 |
|
|
|
|
|
|
|
| 56 |
|
|
|
|
|
|
|
| 57 |
|
| 58 |
---
|
| 59 |
|
| 60 |
-
📝 Descrizione
|
| 61 |
-
|
| 62 |
-
"Mattimax/DATA-AI_Smol256M-Instruct" è un modello AI multimodale ottimizzato per l’italiano, sviluppato a partire da "HuggingFaceTB/SmolVLM-256M-Instruct" e perfezionato tramite fine-tuning con il dataset "Mattimax/DATA-AI_IT".
|
| 63 |
|
| 64 |
-
|
| 65 |
|
|
|
|
| 66 |
|
| 67 |
---
|
| 68 |
|
| 69 |
-
🚀 Caratteristiche Principali
|
| 70 |
-
|
| 71 |
-
✅ Multimodalità – Supporta l’elaborazione congiunta di testo e immagini.
|
| 72 |
-
✅ Compattezza – Solo 256M parametri, con inferenze su immagini che richiedono meno di 1 GB di RAM GPU.
|
| 73 |
-
✅ Ottimizzazione per l’italiano – Addestrato su un dataset curato per migliorare la qualità delle risposte in italiano.
|
| 74 |
-
✅ Efficienza Computazionale – Ideale per applicazioni su hardware a risorse limitate.
|
| 75 |
-
✅ Supporto Open Source – Progettato per democratizzare l’uso dell’IA e promuovere la ricerca libera.
|
| 76 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 77 |
|
| 78 |
---
|
| 79 |
|
| 80 |
-
🏗 Origini del Modello
|
| 81 |
-
|
| 82 |
-
Il modello si basa su HuggingFaceTB/SmolVLM-256M-Instruct, il più leggero tra i modelli multimodali attualmente disponibili.
|
| 83 |
-
|
| 84 |
-
SmolVLM-256M-Instruct garantisce un bilanciamento ideale tra performance ed efficienza, permettendo l’elaborazione simultanea di testo e immagini.
|
| 85 |
-
|
| 86 |
-
È in grado di operare su hardware con risorse limitate senza compromettere la qualità delle risposte.
|
| 87 |
|
|
|
|
| 88 |
|
|
|
|
|
|
|
|
|
|
| 89 |
|
| 90 |
---
|
| 91 |
|
| 92 |
-
🎯 Applicazioni
|
| 93 |
-
|
| 94 |
-
🔹 Image Captioning – Generazione automatica di descrizioni dettagliate per immagini.
|
| 95 |
-
🔹 Visual Question Answering – Risposte a domande basate sui contenuti visivi.
|
| 96 |
-
🔹 Trascrizione e Traduzione Multimodale – Estrazione e conversione del testo presente nelle immagini.
|
| 97 |
-
🔹 AI su Dispositivi Edge – Soluzione ideale per applicazioni mobile o dispositivi embedded.
|
| 98 |
|
|
|
|
|
|
|
|
|
|
|
|
|
| 99 |
|
| 100 |
---
|
| 101 |
|
| 102 |
-
🛠 Come Usarlo
|
| 103 |
|
| 104 |
-
Il modello può essere facilmente caricato tramite 🤗 Transformers
|
| 105 |
|
|
|
|
| 106 |
from transformers import AutoModelForVision2Seq, AutoProcessor
|
| 107 |
import torch
|
| 108 |
from PIL import Image
|
|
@@ -123,14 +85,7 @@ with torch.no_grad():
|
|
| 123 |
# Decodifica la risposta
|
| 124 |
response = processor.batch_decode(outputs, skip_special_tokens=True)[0]
|
| 125 |
print("Risposta del modello:", response)
|
| 126 |
-
|
| 127 |
-
|
| 128 |
-
---
|
| 129 |
-
|
| 130 |
🏁 Conclusioni
|
| 131 |
-
|
| 132 |
-
|
| 133 |
-
Il modello offre prestazioni solide, è leggero e open source, ed è ideale per un’ampia varietà di applicazioni, soprattutto in contesti dove le risorse hardware sono limitate.
|
| 134 |
-
|
| 135 |
-
|
| 136 |
-
---
|
|
|
|
| 1 |
+
# Mattimax/DATA-AI_Smol256M-Instruct
|
| 2 |
|
| 3 |
+

|
| 4 |
+

|
| 5 |
|
| 6 |
---
|
| 7 |
|
| 8 |
+
## 📜 Licenza
|
| 9 |
+
Il modello è distribuito sotto la licenza **Apache 2.0**, che consente l’uso commerciale, la modifica, la distribuzione e la sublicenza.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 10 |
|
| 11 |
+
## 📚 Dataset
|
| 12 |
+
- [Mattimax/DATA-AI_IT](https://huggingface.co/datasets/Mattimax/DATA-AI_IT)
|
| 13 |
|
| 14 |
+
## 🌍 Lingue Supportate
|
| 15 |
+
- it Italiano
|
| 16 |
+
- en Inglese
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 17 |
|
| 18 |
+
## 🏗 Modello Base
|
| 19 |
+
- [HuggingFaceTB/SmolVLM-256M-Instruct](https://huggingface.co/HuggingFaceTB/SmolVLM-256M-Instruct)
|
| 20 |
|
| 21 |
+
## 🛠 Libreria Supportata
|
| 22 |
+
- 🤗 Transformers
|
| 23 |
|
| 24 |
---
|
| 25 |
|
| 26 |
+
## 📝 Descrizione
|
|
|
|
|
|
|
| 27 |
|
| 28 |
+
**"Mattimax/DATA-AI_Smol256M-Instruct"** è un modello AI multimodale ottimizzato per l’italiano, basato su **"HuggingFaceTB/SmolVLM-256M-Instruct"** e sottoposto a fine-tuning con il dataset **"Mattimax/DATA-AI_IT"**.
|
| 29 |
|
| 30 |
+
Il modello è progettato per interpretare e generare testo in combinazione con immagini, garantendo un'ottima efficienza su dispositivi con risorse limitate. Grazie al fine-tuning specifico per la lingua italiana, offre prestazioni avanzate in compiti multimodali, migliorando l’accuratezza delle risposte e la naturalezza del linguaggio.
|
| 31 |
|
| 32 |
---
|
| 33 |
|
| 34 |
+
## 🚀 Caratteristiche Principali
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 35 |
|
| 36 |
+
✅ **Multimodalità** – Supporta l’elaborazione congiunta di testo e immagini.
|
| 37 |
+
✅ **Compattezza** – Solo **256M parametri**, con inferenze su immagini che richiedono meno di **1 GB di RAM GPU**.
|
| 38 |
+
✅ **Ottimizzazione per l’italiano** – Addestrato su un dataset curato per migliorare la qualità delle risposte in italiano.
|
| 39 |
+
✅ **Efficienza Computazionale** – Perfetto per applicazioni su hardware a risorse limitate.
|
| 40 |
+
✅ **Supporto Open Source** – Pensato per democratizzare l’uso dell’IA e promuovere la ricerca libera.
|
| 41 |
|
| 42 |
---
|
| 43 |
|
| 44 |
+
## 🏗 Origini del Modello
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 45 |
|
| 46 |
+
**[HuggingFaceTB/SmolVLM-256M-Instruct](https://huggingface.co/HuggingFaceTB/SmolVLM-256M-Instruct)** è il modello di base da cui è stato sviluppato **"Mattimax/DATA-AI_Smol256M-Instruct"**.
|
| 47 |
|
| 48 |
+
📌 **SmolVLM-256M-Instruct** è attualmente il modello multimodale più leggero disponibile.
|
| 49 |
+
📌 Permette l’elaborazione di testo e immagini con un **bilanciamento ideale tra performance ed efficienza**.
|
| 50 |
+
📌 È in grado di operare su **hardware con risorse limitate** senza sacrificare la qualità delle risposte.
|
| 51 |
|
| 52 |
---
|
| 53 |
|
| 54 |
+
## 🎯 Applicazioni
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 55 |
|
| 56 |
+
🔹 **Image Captioning** – Generazione automatica di descrizioni dettagliate per immagini.
|
| 57 |
+
🔹 **Visual Question Answering** – Risposte a domande su contenuti visivi.
|
| 58 |
+
🔹 **Trascrizione e Traduzione Multimodale** – Estrazione e conversione di testo da immagini.
|
| 59 |
+
🔹 **AI su Dispositivi Edge** – Perfetto per applicazioni mobile o su dispositivi embedded.
|
| 60 |
|
| 61 |
---
|
| 62 |
|
| 63 |
+
## 🛠 Come Usarlo
|
| 64 |
|
| 65 |
+
Il modello può essere facilmente caricato tramite 🤗 **Transformers**:
|
| 66 |
|
| 67 |
+
```python
|
| 68 |
from transformers import AutoModelForVision2Seq, AutoProcessor
|
| 69 |
import torch
|
| 70 |
from PIL import Image
|
|
|
|
| 85 |
# Decodifica la risposta
|
| 86 |
response = processor.batch_decode(outputs, skip_special_tokens=True)[0]
|
| 87 |
print("Risposta del modello:", response)
|
| 88 |
+
```
|
|
|
|
|
|
|
|
|
|
| 89 |
🏁 Conclusioni
|
| 90 |
+
✨ "Mattimax/DATA-AI_Smol256M-Instruct" rappresenta un passo avanti per l’IA multimodale in italiano.
|
| 91 |
+
💡 Il modello offre prestazioni solide, è leggero ed è open source, perfetto per l’uso in vari contesti.
|
|
|
|
|
|
|
|
|
|
|
|