Dorian2B's picture
Update README.md
8d94ec8 verified
metadata
base_model: Dorian2B/Vera-Instruct
language:
  - fr
  - en
license: apache-2.0
pipeline_tag: text-generation
tags:
  - LLM
  - General
  - Instruct
  - llama-cpp
  - gguf-my-repo

Vera - Instruct

Description :

Vera est une intelligence artificielle légère et performante, spécialisée dans les interactions en français. Optimisée pour fonctionner en local, elle offre des réponses rapides et pertinentes, même sur des configurations matérielles modestes.

Caractéristiques clés :

  • Modèle léger (2.6B de paramètres) : Idéal pour une utilisation locale, y compris sur mobile
  • Spécialisation en français : Compréhension et génération de texte de haute qualité
  • Formats disponibles : GGUF (Llama.cpp/Ollama) et PyTorch
  • Open Source : License Apache 2.0

Téléchargement et utilisation :

Option 1 : Via Ollama

ollama run hf.co/Dorian2B/Vera-Instruct-Q8_0-GGUF

Option 2 : Téléchargement direct (GGUF)

Modèle GGUF Quantifié (Q8_0)

Option 3 : Utilisation avec Python (PyTorch)

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Dorian2B/Vera-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Cas d'usage :

  • Assistance personnelle hors ligne
  • Réponses rapides en français
  • Solutions pour appareils à ressources limitées

Notes :

  • Fonctionnement 100% local respectant la vie privée
  • Performances optimales sur CPU/GPU (format GGUF)
  • Poids du modèle : ~2.8GB (Q8_0)