Model Card per Mattimax/DATA-AI_Chat_3_0.5B-Q4_K_M-GGUF (DAC)

Descrizione del Modello

Mattimax/DATA-AI_Chat_3_0.5B-Q4_K_M-GGUF, noto anche come DAC, Γ¨ la prima versione ufficiale quantizzata del modello conversazionale DATA-AI Chat 3.0.5B, pubblicata nel maggio dello scorso anno. Il modello Γ¨ progettato per generare risposte interattive, coerenti e contestualmente rilevanti in scenari di chat e applicazioni di assistenza virtuale.

Questa versione quantizzata consente un utilizzo piΓΉ leggero in termini di risorse hardware senza compromettere le capacitΓ  conversazionali del modello originale.

  • Sviluppato da: Mattimax Team
  • Finanziato da: M.INC.
  • Condiviso da: Mattimax
  • Tipo di modello: LLM (chatbot)
  • Licenza: Apache-2.0
DATA-AI_Chat_3

Storia e Contesto

  • La serie DATA-AI Chat ha riscosso grande successo nelle applicazioni di chatbot avanzati.
  • Dopo la pubblicazione originale, il modello Γ¨ stato quantizzato ufficialmente per la prima volta, ottenendo maggiore efficienza computazionale.
  • Contestualmente, la denominazione del modello Γ¨ stata abbreviata in DAC (acronimo di DATA-AI Chat), come parte della strategia di brand della serie di modelli sviluppati da M.INC..

Fonti del Modello

πŸ”Ή Chi ha creato DAC?

DAC Γ¨ stato sviluppato da M.INC., azienda italiana fondata da Mattimax (M. Marzorati), con l’obiettivo di produrre modelli conversazionali leggeri e performanti, adatti a deployment su dispositivi con risorse limitate.

πŸ”Ή Altri Progetti di M.INC.

Oltre a DAC, M.INC. ha creato DATANET, un’applicazione di chat avanzata basata sui modelli DATA-AI.

πŸ”Ή Lingue di Addestramento

Il modello supporta italiano, inglese, spagnolo, francese, oltre ad altre lingue principali tra cui cinese, portoghese, tedesco, russo, giapponese, coreano, vietnamita, thailandese e arabo.


πŸ“₯ Download e Utilizzo

Puoi utilizzare DAC attraverso llama.cpp o librerie compatibili con modelli GGUF. Esempio CLI:

llama-cli --hf-repo Mattimax/DATA-AI_Chat_3_0.5B-Q4_K_M-GGUF --hf-file data-ai_chat_3_0.5b-q4_k_m.gguf -p "Ciao DAC, come stai oggi?"

Server mode:

llama-server --hf-repo Mattimax/DATA-AI_Chat_3_0.5B-Q4_K_M-GGUF --hf-file data-ai_chat_3_0.5b-q4_k_m.gguf -c 2048

πŸ“’ Contatti e Supporto

Per domande, collaborazioni o supporto tecnico, contatta M.INC. direttamente tramite la pagina del progetto su Hugging Face.

Downloads last month
35
GGUF
Model size
0.5B params
Architecture
qwen2
Hardware compatibility
Log In to view the estimation

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. πŸ™‹ Ask for provider support

Model tree for Mattimax/DAC3-0.5B-GGUF

Base model

Qwen/Qwen2.5-0.5B
Quantized
(1)
this model

Collection including Mattimax/DAC3-0.5B-GGUF