Vera-2.0-GGUF / README.md
Dorian2B's picture
Update README.md
623b0eb verified
metadata
license: apache-2.0
language:
  - fr
  - en
  - es
  - it
pipeline_tag: text-generation
tags:
  - Vera
  - General
  - LLM
  - AI
  - 3.9B

Vera 2.0 - Instruct

Description :

Vera 2.0 est un modèle IA nouvelle génération (3.9B paramètres) optimisé pour performances locales. Successeur de Vera 1.5, il excelle en rédaction, traduction multilingue et analyse de documents longs avec une confidentialité intégrée.

Améliorations clés :

  • Contexte étendu (128K tokens) : Traitement de documents volumineux en une seule requête
  • Précision linguistique renforcée : Réponses plus nuancées en français, anglais, espagnol et italien
  • Optimisation computationnelle : Architecture équilibrée pour efficacité accrue

Caractéristiques clés :

  • Modèle compact (3.9B paramètres) : Fonctionne localement sur smartphones et PC
  • Spécialisation confidentialité : Zero données envoyées aux serveurs
  • Licence : Apache 2.0 (open source)
  • Applications : Rédaction pro, traduction, vulgarisation, assistant conversationnel

Téléchargement et utilisation :

Option 1 : Via Ollama

ollama run hf.co/Dorian2B/Vera-2.0-GGUF

Option 2 : Téléchargement direct (GGUF)

Modèle GGUF Quantifié (Q8_0)

Option 3 : Utilisation avec Python (PyTorch)

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Dorian2B/Vera-2.0"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Cas d'usage :

  • Assistance personnelle hors ligne
  • Réponses rapides en français
  • Solutions pour appareils à ressources limitées

Notes :

  • Fonctionnement 100% local respectant la vie privée
  • Performances optimales sur CPU/GPU (format GGUF)
  • Poids du modèle : ~4GB (Q8_0)