BABA-IA-2B
Description du modèle
BABA-IA-2B est un modèle de langage conversationnel léger (2 milliards de paramètres) optimisé pour l'assistance générale. Il est conçu pour être déployable sur des infrastructures modestes (CPU/GPU grand public) tout en offrant des performances robustes pour le dialogue chat.
Ce modèle alimente le chatbot BABA, une initiative visant à rendre l'assistance generale plus accessible.
- Développé par : [ElephMind Ivoire]
- Type de modèle : Causal Language Model (AutoModelForCausalLM)
- Langue(s) : Français, Anglais
- Licence : Apache 2.0
- Fin-tuné ou entrainé depuis : [entrainé from scratch]
Utilisations
Utilisation directe
Le modèle est conçu pour générer du texte de manière conversationnelle. Il peut répondre à des questions, engager un dialogue, et fournir des informations contextuelles.
Comment démarrer avec le modèle
Vous pouvez utiliser ce modèle directement avec la bibliothèque transformers de Hugging Face.
Prérequis
pip install transformers torch accelerate
Exemple de code (Python)
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "issoufzousko07/BABA-IA-2B"
# Détection du matériel (GPU ou CPU)
device = "cuda" if torch.cuda.is_available() else "cpu"
dtype = torch.float16 if device == "cuda" else torch.float32
print(f"Chargement du modèle sur {device}...")
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=dtype,
device_map="auto" if device == "cuda" else None
)
if device == "cpu":
model.to("cpu")
# Préparer le message
messages = [
{"role": "user", "content": "Bonjour, comment t'appelle tu?"}
]
# Appliquer le template de chat
input_text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(input_text, return_tensors="pt").to(device)
# Générer la réponse
outputs = model.generate(
**inputs,
max_new_tokens=256,
do_sample=True,
temperature=0.7,
top_p=0.9
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
Détails de l'entraînement
Données d'entraînement et procédure [À compléter avec les détails spécifiques de votre fine-tuning].
Biais, risques et limites
Bien que BABA-IA-2B soit optimisé pour fournir des informations utiles, comme tout modèle de langage, il peut produire des hallucinations ou des informations inexactes.
- Usage generaliste : Ce modèle est un chatbot conversationnelle conçu pour aider de façon general les utilisateurs.
- Biais : Le modèle peut refléter les biais présents dans ses données d'entraînement.
Citation
Si vous utilisez ce modèle, merci de le citer comme suit :
@misc{baba-ia-2b,
author = {Zousko Nicanor/Elephmind IA},
title = {BABA-IA-2B: A Lightweight Medical Chatbot Model},
year = {2026},
publisher = {Hugging Face},
journal = {Hugging Face Model Hub},
howpublished = {\url{https://huggingface.co/issoufzousko07/BABA-IA-2B}}
}
- Downloads last month
- 60