Model Card per Mattimax/DATA-AI_Chat_3_0.5B-Q4_K_M-GGUF (DAC)
Descrizione del Modello
Mattimax/DATA-AI_Chat_3_0.5B-Q4_K_M-GGUF, noto anche come DAC, Γ¨ la prima versione ufficiale quantizzata del modello conversazionale DATA-AI Chat 3.0.5B, pubblicata nel maggio dello scorso anno. Il modello Γ¨ progettato per generare risposte interattive, coerenti e contestualmente rilevanti in scenari di chat e applicazioni di assistenza virtuale.
Questa versione quantizzata consente un utilizzo piΓΉ leggero in termini di risorse hardware senza compromettere le capacitΓ conversazionali del modello originale.
- Sviluppato da: Mattimax Team
- Finanziato da: M.INC.
- Condiviso da: Mattimax
- Tipo di modello: LLM (chatbot)
- Licenza: Apache-2.0
Storia e Contesto
- La serie DATA-AI Chat ha riscosso grande successo nelle applicazioni di chatbot avanzati.
- Dopo la pubblicazione originale, il modello Γ¨ stato quantizzato ufficialmente per la prima volta, ottenendo maggiore efficienza computazionale.
- Contestualmente, la denominazione del modello Γ¨ stata abbreviata in DAC (acronimo di DATA-AI Chat), come parte della strategia di brand della serie di modelli sviluppati da M.INC..
Fonti del Modello
πΉ Chi ha creato DAC?
DAC Γ¨ stato sviluppato da M.INC., azienda italiana fondata da Mattimax (M. Marzorati), con lβobiettivo di produrre modelli conversazionali leggeri e performanti, adatti a deployment su dispositivi con risorse limitate.
πΉ Altri Progetti di M.INC.
Oltre a DAC, M.INC. ha creato DATANET, unβapplicazione di chat avanzata basata sui modelli DATA-AI.
πΉ Lingue di Addestramento
Il modello supporta italiano, inglese, spagnolo, francese, oltre ad altre lingue principali tra cui cinese, portoghese, tedesco, russo, giapponese, coreano, vietnamita, thailandese e arabo.
π₯ Download e Utilizzo
Puoi utilizzare DAC attraverso llama.cpp o librerie compatibili con modelli GGUF. Esempio CLI:
llama-cli --hf-repo Mattimax/DATA-AI_Chat_3_0.5B-Q4_K_M-GGUF --hf-file data-ai_chat_3_0.5b-q4_k_m.gguf -p "Ciao DAC, come stai oggi?"
Server mode:
llama-server --hf-repo Mattimax/DATA-AI_Chat_3_0.5B-Q4_K_M-GGUF --hf-file data-ai_chat_3_0.5b-q4_k_m.gguf -c 2048
π’ Contatti e Supporto
Per domande, collaborazioni o supporto tecnico, contatta M.INC. direttamente tramite la pagina del progetto su Hugging Face.
- Downloads last month
- 35
4-bit
Model tree for Mattimax/DAC3-0.5B-GGUF
Base model
Qwen/Qwen2.5-0.5B