--- license: apache-2.0 --- readme_content = """ # 2_PRYMMAL-ECE-2B-SLERP-V2-finetuned This model has been produced by: - **LALAIN Youri**, engineering student at French Engineering School ECE - **RAGE LILIAN**, engineering student at French Engineering School ECE ## Description Ce modèle, **2_PRYMMAL-ECE-2B-SLERP-V2-finetuned**, est un modèle de langage pré-entraîné et affiné (fine-tuned) pour des tâches spécifiques en compréhension et génération de texte. Il a été optimisé pour fonctionner efficacement sur des données textuelles complexes, telles que des questions-réponses et des descriptions détaillées. ## Détails du modèle - **Architecture** : Basé sur [Base Model Architecture] (remplace par le nom de l'architecture si applicable, ex. Llama, GPT, etc.). - **Fine-tuning** : Réalisé sur un jeu de données contenant des questions et réponses techniques liées à des domaines spécifiques. - **Format** : Enregistré au format `safetensors` pour garantir une utilisation sécurisée et rapide. ## Caractéristiques - **Nombre de paramètres** : 2B - **Tâches supportées** : - Génération de texte - Questions-réponses - Résumé de documents - **Entraînement** : - Optimisé sur 3 epochs avec des pertes en diminution constante. - Utilisation de `bfloat16` pour une meilleure performance GPU. ## Utilisation ### Chargement du modèle Pour utiliser ce modèle dans un projet Python avec Hugging Face : ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Lil-R/2_PRYMMAL-ECE-2B-SLERP-V2-finetuned" # Charger le modèle et le tokenizer tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) # Exemple d'utilisation inputs = tokenizer("Quelle est la mission d'Ariane 5 ?", return_tensors="pt") outputs = model.generate(**inputs) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` ## Téléchargement direct Le modèle peut être téléchargé directement depuis Hugging Face. ## Performances - **Training Loss** : Diminue de 2.1653 à 1.1291 sur 3 epochs. - **Validation Loss** : Diminue de 1.9553 à 1.5075, montrant une bonne généralisation. ## Licence Ce modèle est distribué sous une licence ouverte. "Apache 2.0"