Update README.md
Browse files
README.md
CHANGED
|
@@ -13,9 +13,8 @@ tags:
|
|
| 13 |
- français
|
| 14 |
---
|
| 15 |
|
| 16 |
-
# LLM
|
| 17 |
|
| 18 |
-
## Introduction
|
| 19 |
|
| 20 |
Ce modèle est un **LLM Meta-Llama-3.1-8B fine tuné** pour le domaine de la fiscalité française. Il peut répondre à des questions spécifiques sur la fiscalité en générale. Il a été entraîné pour fournir des réponses précises et contextuelles basées sur des textes de référence en matière fiscalité française.
|
| 21 |
|
|
@@ -44,7 +43,7 @@ pip install transformers torch accelerate bitsandbytes
|
|
| 44 |
```
|
| 45 |
|
| 46 |
### Utilisation basique
|
| 47 |
-
python
|
| 48 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 49 |
model_name = "Aktraiser/model_test1"
|
| 50 |
Chargement du modèle avec configuration optimisée
|
|
@@ -79,7 +78,7 @@ do_sample=True
|
|
| 79 |
)
|
| 80 |
response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
|
| 81 |
print(response)
|
| 82 |
-
|
| 83 |
## Paramètres de génération recommandés
|
| 84 |
|
| 85 |
Pour obtenir les meilleures réponses, nous recommandons les paramètres suivants :
|
|
|
|
| 13 |
- français
|
| 14 |
---
|
| 15 |
|
| 16 |
+
# LLM - Assistant Expert
|
| 17 |
|
|
|
|
| 18 |
|
| 19 |
Ce modèle est un **LLM Meta-Llama-3.1-8B fine tuné** pour le domaine de la fiscalité française. Il peut répondre à des questions spécifiques sur la fiscalité en générale. Il a été entraîné pour fournir des réponses précises et contextuelles basées sur des textes de référence en matière fiscalité française.
|
| 20 |
|
|
|
|
| 43 |
```
|
| 44 |
|
| 45 |
### Utilisation basique
|
| 46 |
+
```python
|
| 47 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 48 |
model_name = "Aktraiser/model_test1"
|
| 49 |
Chargement du modèle avec configuration optimisée
|
|
|
|
| 78 |
)
|
| 79 |
response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
|
| 80 |
print(response)
|
| 81 |
+
```
|
| 82 |
## Paramètres de génération recommandés
|
| 83 |
|
| 84 |
Pour obtenir les meilleures réponses, nous recommandons les paramètres suivants :
|