Mattimax's picture
Update README.md
b657806 verified
---
license: apache-2.0
license_link: https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct/blob/main/LICENSE
language:
- it
- en
pipeline_tag: text-generation
base_model: Qwen/Qwen2.5-0.5B-Instruct
tags:
- chat
library_name: transformers
datasets:
- Mattimax/DATA-AI_Conversation_ITA
- teelinsan/camoscio
- efederici/alpaca-gpt4-it
- s-conia/arc_italian
- alexandrainst/m_mmlu
---
# 🧠 Mattimax/DATA-AI\_Chat\_4.1\_0.5B
**DATA-AI Chat 4.1 (0.5B)** è un modello di linguaggio di tipo *instruction-following* fine-tuned sulla base di [`Qwen/Qwen2.5-0.5B-Instruct`](https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct), specializzato per generazione, conversazione e risoluzione di compiti in lingua **italiana**.
È stato addestrato su un mix curato di dataset aperti per rafforzare le capacità del modello in ambiti conversazionali, accademici e di ragionamento automatico.
---
## 📌 Modello di Partenza
* **Base model**: `Qwen/Qwen2.5-0.5B-Instruct`
* **Architettura**: Causal Language Model (decoder-only)
* **Parametri**: 0.5 miliardi
* **Licenza originale**: [Qwen License](https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct)
---
## 🎯 Obiettivo del Fine-tuning
Il fine-tuning ha mirato a:
* Ottimizzare il comportamento *instruction-following* in italiano
* Migliorare l’interazione in stile chatbot
* Aumentare le performance in domande a scelta multipla e contenuti accademici
* Integrare capacità generative con robustezza nei task di comprensione
---
## 🗂️ Dataset utilizzati
Il modello è stato addestrato su un mix di dataset open-source contenenti sia dialoghi generativi che domande complesse.
Tutti i dataset sono in lingua italiana o sono stati tradotti automaticamente.
| Dataset | Fonte | Tipo | Note |
| ------------------------------------- | -------------------- | ----------------- | ---------------------- |
| `Mattimax/DATA-AI_Conversation_ITA` | Conversazionale | Prompt + Risposta | Chat generative |
| `teelinsan/camoscio` | Instruction-based | Prompt + Risposta | Domande dirette |
| `efederici/alpaca-gpt4-it` | Instruction tuning | Prompt + Output | Tradotto da Alpaca |
| `s-conia/arc_italian` (ARC Challenge) | QA a scelta multipla | Tradotto | Task di ragionamento |
| `alexandrainst/m_mmlu` (`it`) | QA accademico | Tradotto | MMLU versione italiana |
> Gli esempi sono stati filtrati per garantire che ogni esempio avesse sia un’istruzione (o prompt) che una risposta (o output), con un preprocessing dedicato per ARC e MMLU.
---
## 🌍 Lingue
* **Lingua di addestramento principale**: 🇮🇹 Italiano
Il modello si basa su una base multilingua, ma il fine-tuning è interamente focalizzato sull’italiano.
---
## ⚙️ Dettagli del Training
| Parametro | Valore |
| ---------------------- | ------------------------------------- |
| Max sequence length | 1024 |
| Batch size effettivo | 32 (2 per device x 16 grad. accum.) |
| Learning rate | 2e-5 |
| Max steps | 5000 |
| Validation split | 5% |
| Precisione | BF16 |
| Gradient checkpointing | ✅ Abilitato |
---
## 📄 Licenza
Il modello eredita la licenza del modello di partenza: **[Qwen License](https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct)**.
Assicurati di rispettare i termini di utilizzo e distribuzione.
---
## 🚀 Come usare il modello
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Mattimax/DATA-AI_Chat_4.1_0.5B"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
prompt = "Spiega in parole semplici la fotosintesi clorofilliana."
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
outputs = model.generate(input_ids, max_new_tokens=200, do_sample=True)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```
---
## 📊 Valutazione qualitativa
Durante il fine-tuning, il modello ha dimostrato:
* Migliore coerenza nelle risposte lunghe
* Comprensione semantica di prompt complessi
* Aumento dell’accuratezza nei task di QA (ARC e MMLU in italiano)
* Fluidità e naturalezza nei contesti di chat
Benchmark quantitativi estesi possono essere eseguiti successivamente.
---
## 👤 Autore e contatti
Fine-tuning eseguito da **Mattimax**
📬 Per feedback, segnalazioni o collaborazioni, apri una issue o contattami tramite Hugging Face.