Spaces:
Sleeping
Sleeping
Merwan6
commited on
Commit
·
719631b
1
Parent(s):
8f7bccf
modif doc
Browse files
app.py
CHANGED
|
@@ -34,17 +34,18 @@ L’application est disponible ici :
|
|
| 34 |
|
| 35 |
## 🧠 Description des modèles utilisés
|
| 36 |
|
| 37 |
-
|
| 38 |
-
|
| 39 |
-
|
| 40 |
-
|
| 41 |
-
|
| 42 |
-
|
| 43 |
-
|
| 44 |
-
|
| 45 |
-
|
| 46 |
-
|
| 47 |
-
|
|
|
|
| 48 |
|
| 49 |
---
|
| 50 |
|
|
|
|
| 34 |
|
| 35 |
## 🧠 Description des modèles utilisés
|
| 36 |
|
| 37 |
+
Base model
|
| 38 |
+
Modèle BERT préentraîné textattack/bert-base-uncased-ag-news.
|
| 39 |
+
Il est utilisé directement sans réentraînement. Le texte est tokenisé avec AutoTokenizer puis passé au modèle pour obtenir une distribution de probabilité via softmax.
|
| 40 |
+
Zero-shot
|
| 41 |
+
Modèle facebook/bart-large-mnli utilisé via la pipeline zero-shot-classification de Hugging Face.
|
| 42 |
+
Le texte est comparé à une liste de labels cibles (World, Sports, Business, Sci/Tech) sans aucun entraînement préalable sur AG News. Ce modèle s’appuie sur la reconnaissance d’implications textuelles pour inférer la classe la plus probable.
|
| 43 |
+
Few-shot
|
| 44 |
+
Basé sur le modèle google/flan-t5-small avec la pipeline text2text-generation.
|
| 45 |
+
Le prompt inclut quelques exemples de classification manuelle (prompt engineering). Le modèle génère ensuite une réponse textuelle correspondant à la catégorie. Les sorties sont nettoyées et validées par correspondance avec les labels autorisés.
|
| 46 |
+
Fine-tuned model
|
| 47 |
+
Modèle bert-base-uncased fine-tuné sur un sous-ensemble équilibré du dataset AG News (3000 exemples par classe) puis hébergé sur le Hugging Face Hub sous Merwan611/agnews-finetuned-bert.
|
| 48 |
+
La prédiction utilise également AutoTokenizer et applique une couche softmax sur les logits du modèle. L’accès au modèle peut nécessiter un token d’authentification via une variable d’environnement CLE.
|
| 49 |
|
| 50 |
---
|
| 51 |
|