|
|
--- |
|
|
license: mit |
|
|
datasets: |
|
|
- Mattimax/DATA-AI_Conversation_ITA |
|
|
language: |
|
|
- it |
|
|
base_model: |
|
|
- Mattimax/DACMini |
|
|
library_name: transformers |
|
|
tags: |
|
|
- DAC |
|
|
- DATA-AI |
|
|
- data-ai |
|
|
--- |
|
|
|
|
|
[](https://huggingface.co/Mattimax) |
|
|
[](https://huggingface.co/MINC01) |
|
|
|
|
|
# Mattimax/DACMini-IT |
|
|
|
|
|
 |
|
|
|
|
|
* **Autore:** [Mattimax](https://huggingface.co/Mattimax) |
|
|
* **Organizzazione:** [M.INC](https://huggingface.co/MINC01) |
|
|
* **Licenza:** MIT |
|
|
|
|
|
--- |
|
|
|
|
|
## Descrizione |
|
|
|
|
|
**DACMini-IT** è un modello di linguaggio compatto e instruction tuned per **chat e dialogo in lingua italiana**. |
|
|
Basato sull’architettura **GPT-2 Small (italian adaptation)**, è progettato per essere rapido, leggero e facilmente distribuibile su dispositivi con risorse limitate. |
|
|
|
|
|
Rispetto a DACMini “base”, **DACMini-IT** è addestrato su dataset italiani conversazionali strutturati in formato *user-assistant*, ottimizzando la capacità di seguire istruzioni e gestire conversazioni multi-turno naturali. |
|
|
|
|
|
--- |
|
|
|
|
|
## Dimensioni e caratteristiche tecniche |
|
|
|
|
|
* **Parametri:** 109M |
|
|
* **Architettura:** GPT-2 Small (italian adaptation) |
|
|
* **Lunghezza massima del contesto:** 512 token |
|
|
* **Numero di strati:** 12 |
|
|
* **Numero di teste di attenzione:** 12 |
|
|
* **Dimensione embedding:** 768 |
|
|
* **Vocabolario:** ~50.000 token |
|
|
* **Quantizzazione:** supportata (8-bit / 4-bit opzionale con `bitsandbytes`) |
|
|
|
|
|
--- |
|
|
|
|
|
## Dataset di addestramento |
|
|
|
|
|
Addestrato su [**Mattimax/DATA-AI_Conversation_ITA**](https://huggingface.co/datasets/Mattimax/DATA-AI_Conversation_ITA), un dataset italiano di dialoghi instruction tuned, contenente coppie *prompt-response* strutturate per favorire risposte coerenti, naturali e grammaticalmente corrette. |
|
|
|
|
|
--- |
|
|
|
|
|
## Obiettivi |
|
|
|
|
|
* Chatbot in lingua italiana con capacità di seguire istruzioni. |
|
|
* Risposte concise, chiare e naturali in contesti multi-turno. |
|
|
* Applicazioni leggere o offline dove la dimensione del modello è un vincolo. |
|
|
|
|
|
--- |
|
|
|
|
|
## Avvertenze e limitazioni |
|
|
|
|
|
* Modello **sperimentale**: può produrre errori logici o risposte non pertinenti. |
|
|
* Non addestrato su temi sensibili o contenuti specialistici. |
|
|
* Prestazioni limitate su conversazioni molto lunghe o prompt complessi. |
|
|
* Non destinato ad usi commerciali senza ulteriore validazione. |
|
|
|
|
|
--- |
|
|
|
|
|
## Uso consigliato |
|
|
|
|
|
* Applicazioni chatbot leggere o offline in italiano. |
|
|
* Prototipazione e test di pipeline NLP italiane. |
|
|
* Generazione di risposte sintetiche e dataset per training o valutazione. |
|
|
|
|
|
--- |
|
|
|
|
|
## Codice per inferenza di esempio |
|
|
|
|
|
```python |
|
|
from transformers import AutoTokenizer, AutoModelForCausalLM |
|
|
import torch |
|
|
|
|
|
# 1. Carica modello e tokenizer addestrati |
|
|
model_path = "Mattimax/DACMini-IT" |
|
|
tokenizer = AutoTokenizer.from_pretrained(model_path) |
|
|
model = AutoModelForCausalLM.from_pretrained(model_path) |
|
|
model.eval() |
|
|
|
|
|
# 2. Funzione di generazione |
|
|
def chat_inference(prompt, max_new_tokens=150, temperature=0.7, top_p=0.9): |
|
|
# Costruisci input nel formato usato in training |
|
|
formatted_prompt = f"<|user|> {prompt.strip()} <|assistant|>" |
|
|
|
|
|
# Tokenizza |
|
|
inputs = tokenizer(formatted_prompt, return_tensors="pt") |
|
|
|
|
|
# Genera risposta |
|
|
with torch.no_grad(): |
|
|
output = model.generate( |
|
|
**inputs, |
|
|
max_new_tokens=max_new_tokens, |
|
|
temperature=temperature, |
|
|
top_p=top_p, |
|
|
do_sample=True, |
|
|
pad_token_id=tokenizer.pad_token_id or tokenizer.eos_token_id |
|
|
) |
|
|
|
|
|
# Decodifica e rimuovi prompt iniziale |
|
|
generated_text = tokenizer.decode(output[0], skip_special_tokens=True) |
|
|
response = generated_text.split("<|assistant|>")[-1].strip() |
|
|
return response |
|
|
|
|
|
# 3. Esempio d’uso |
|
|
if __name__ == "__main__": |
|
|
while True: |
|
|
user_input = input("👤 Utente: ") |
|
|
if user_input.lower() in ["exit", "quit"]: |
|
|
break |
|
|
response = chat_inference(user_input) |
|
|
print(f"🤖 Assistant: {response}\n") |
|
|
```` |
|
|
|
|
|
## Referenze |
|
|
|
|
|
* Dataset: [Mattimax/DATA-AI_Conversation_ITA](https://huggingface.co/datasets/Mattimax/DATA-AI_Conversation_ITA) |
|
|
* Modello di base: [DACMini](https://huggingface.co/Mattimax/DACMini) |
|
|
* Organizzazione: [M.INC](https://huggingface.co/MINC01) |
|
|
* Collezione: [Little_DAC Collection](https://huggingface.co/collections/Mattimax/little-dac-collection-68e11d19a5949d08e672b312) |
|
|
|
|
|
## Citazione |
|
|
|
|
|
Se utilizzi **Mattimax/DACMini-IT** in un progetto, un articolo o qualsiasi lavoro, ti chiediamo gentilmente di citarlo usando il file `CITATION.bib` incluso nel repository: |
|
|
|
|
|
```bibtex |
|
|
@misc{mattimax2025dacminiit, |
|
|
title = {{Mattimax/DACMini-IT}: Un modello di linguaggio open source}, |
|
|
author = {Mattimax}, |
|
|
howpublished = {\url{https://huggingface.co/Mattimax/DACMini-IT}}, |
|
|
year = {2025}, |
|
|
note = {License: MIT. Se usi questo modello, per favore citane la fonte originale.} |
|
|
} |
|
|
``` |