Update README.md
Browse files
README.md
CHANGED
|
@@ -3,10 +3,13 @@ license: apache-2.0
|
|
| 3 |
---
|
| 4 |
|
| 5 |
readme_content = """
|
| 6 |
-
# 2_PRYMMAL-ECE-2B-SLERP-
|
| 7 |
|
|
|
|
|
|
|
|
|
|
| 8 |
## Description
|
| 9 |
-
Ce modèle, **2_PRYMMAL-ECE-2B-SLERP-
|
| 10 |
|
| 11 |
## Détails du modèle
|
| 12 |
- **Architecture** : Basé sur [Base Model Architecture] (remplace par le nom de l'architecture si applicable, ex. Llama, GPT, etc.).
|
|
@@ -30,7 +33,7 @@ Pour utiliser ce modèle dans un projet Python avec Hugging Face :
|
|
| 30 |
```python
|
| 31 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 32 |
|
| 33 |
-
model_name = "Lil-R/2_PRYMMAL-ECE-2B-SLERP-
|
| 34 |
|
| 35 |
# Charger le modèle et le tokenizer
|
| 36 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
|
@@ -53,7 +56,3 @@ Le modèle peut être téléchargé directement depuis Hugging Face.
|
|
| 53 |
## Licence
|
| 54 |
Ce modèle est distribué sous une licence ouverte.
|
| 55 |
"Apache 2.0"
|
| 56 |
-
|
| 57 |
-
This model has been produced by:
|
| 58 |
-
- **LALAIN Youri**, engineering student at French Engineering School ECE
|
| 59 |
-
- **RAGE LILIAN**, engineering student at French Engineering School ECE
|
|
|
|
| 3 |
---
|
| 4 |
|
| 5 |
readme_content = """
|
| 6 |
+
# 2_PRYMMAL-ECE-2B-SLERP-V2-finetuned
|
| 7 |
|
| 8 |
+
This model has been produced by:
|
| 9 |
+
- **LALAIN Youri**, engineering student at French Engineering School ECE
|
| 10 |
+
- **RAGE LILIAN**, engineering student at French Engineering School ECE
|
| 11 |
## Description
|
| 12 |
+
Ce modèle, **2_PRYMMAL-ECE-2B-SLERP-V2-finetuned**, est un modèle de langage pré-entraîné et affiné (fine-tuned) pour des tâches spécifiques en compréhension et génération de texte. Il a été optimisé pour fonctionner efficacement sur des données textuelles complexes, telles que des questions-réponses et des descriptions détaillées.
|
| 13 |
|
| 14 |
## Détails du modèle
|
| 15 |
- **Architecture** : Basé sur [Base Model Architecture] (remplace par le nom de l'architecture si applicable, ex. Llama, GPT, etc.).
|
|
|
|
| 33 |
```python
|
| 34 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 35 |
|
| 36 |
+
model_name = "Lil-R/2_PRYMMAL-ECE-2B-SLERP-V2-finetuned"
|
| 37 |
|
| 38 |
# Charger le modèle et le tokenizer
|
| 39 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
|
|
|
| 56 |
## Licence
|
| 57 |
Ce modèle est distribué sous une licence ouverte.
|
| 58 |
"Apache 2.0"
|
|
|
|
|
|
|
|
|
|
|
|