Merwan6 commited on
Commit
719631b
·
1 Parent(s): 8f7bccf
Files changed (1) hide show
  1. app.py +12 -11
app.py CHANGED
@@ -34,17 +34,18 @@ L’application est disponible ici :
34
 
35
  ## 🧠 Description des modèles utilisés
36
 
37
- 1. **Base model**
38
- Modèle BERT préentraîné `textattack/bert-base-uncased-ag-news` utilisé directement sans fine-tuning.
39
-
40
- 2. **Zero-shot**
41
- Modèle `facebook/bart-large-mnli` utilisé pour classification zero-shot via pipeline Hugging Face.
42
-
43
- 3. **Few-shot**
44
- Approche zero-shot avec exemples dans le prompt (prompt engineering).
45
-
46
- 4. **Fine-tuned model**
47
- Modèle BERT `bert-base-uncased` entraîné sur un sous-ensemble équilibré du dataset AG News (3000 exemples par classe), sauvegardé sur Hugging Face Hub sous `Merwan611/agnews-finetuned-bert`.
 
48
 
49
  ---
50
 
 
34
 
35
  ## 🧠 Description des modèles utilisés
36
 
37
+ Base model
38
+ Modèle BERT préentraîné textattack/bert-base-uncased-ag-news.
39
+ Il est utilisé directement sans réentraînement. Le texte est tokenisé avec AutoTokenizer puis passé au modèle pour obtenir une distribution de probabilité via softmax.
40
+ Zero-shot
41
+ Modèle facebook/bart-large-mnli utilisé via la pipeline zero-shot-classification de Hugging Face.
42
+ Le texte est comparé à une liste de labels cibles (World, Sports, Business, Sci/Tech) sans aucun entraînement préalable sur AG News. Ce modèle s’appuie sur la reconnaissance d’implications textuelles pour inférer la classe la plus probable.
43
+ Few-shot
44
+ Basé sur le modèle google/flan-t5-small avec la pipeline text2text-generation.
45
+ Le prompt inclut quelques exemples de classification manuelle (prompt engineering). Le modèle génère ensuite une réponse textuelle correspondant à la catégorie. Les sorties sont nettoyées et validées par correspondance avec les labels autorisés.
46
+ Fine-tuned model
47
+ Modèle bert-base-uncased fine-tuné sur un sous-ensemble équilibré du dataset AG News (3000 exemples par classe) puis hébergé sur le Hugging Face Hub sous Merwan611/agnews-finetuned-bert.
48
+ La prédiction utilise également AutoTokenizer et applique une couche softmax sur les logits du modèle. L’accès au modèle peut nécessiter un token d’authentification via une variable d’environnement CLE.
49
 
50
  ---
51