mediani commited on
Commit
bc84fc0
·
1 Parent(s): 7f678ee

fix: Add README with Space configuration

Browse files
Files changed (1) hide show
  1. README.md +28 -18
README.md CHANGED
@@ -39,32 +39,42 @@ curl -X 'POST' \
39
  -H 'accept: application/json' \
40
  -H 'Content-Type: application/json' \
41
  -d '{"text": "Salam, la connexion 4G naqsa 3ndi bzaf"}'
 
 
 
42
 
43
- Exemple de Réponse Attendue
44
  L'API retournera un objet JSON avec l'intention (intent) prédite par le modèle et son score de confiance (confidence).
 
 
45
  {
46
  "intent": "declarer_panne",
47
  "confidence": 0.9954321098
48
  }
 
49
 
 
50
 
 
51
 
52
- 📋 Liste des Intentions Reconnues
53
  Le modèle a été entraîné pour reconnaître et classifier les 9 intentions suivantes, qui sont les plus courantes dans un contexte de service client :
54
- consulter_solde: Demandes concernant le solde, la recharge ou les données restantes.
55
- reclamer_facture: Réclamations concernant une facture (montant élevé, erreur...).
56
- declarer_panne: Signalement d'un problème technique (panne réseau, connexion lente...).
57
- info_forfait: Demandes d'informations sur les produits, offres et abonnements.
58
- recuperer_mot_de_passe: Demandes liées à la réinitialisation d'un mot de passe ou d'un code.
59
- salutations: Salutations et début de conversation.
60
- remerciements: Expressions de gratitude.
61
- demander_agent_humain: Demande explicite de parler à un conseiller humain.
62
- hors_scope: Toute demande hors du périmètre du service client.
63
- 🛠️ Stack Technique & Cycle de Vie du Projet
 
 
 
64
  Ce projet a été réalisé en suivant un cycle de vie complet, du prototypage au déploiement :
65
- Modèle : UBC-NLP/MARBERTv2 fine-tuné avec la bibliothèque transformers de Hugging Face.
66
- Corpus : Un corpus personnalisé a été assemblé en combinant la collecte de données (Twitter, YouTube), la génération par IA, et l'annotation manuelle avec Doccano.
67
- Framework API : FastAPI, pour sa rapidité et sa génération automatique de documentation.
68
- Conteneurisation : Docker, pour garantir la portabilité et la reproductibilité de l'environnement.
69
- Versionnement : Git & Git LFS pour gérer les gros fichiers de modèle (plus de 100 Mo).
70
- Déploiement : L'API est hébergée sur Hugging Face Spaces, fournissant une solution CI/CD (intégration et déploiement continus) à partir d'un dépôt Git.
 
 
39
  -H 'accept: application/json' \
40
  -H 'Content-Type: application/json' \
41
  -d '{"text": "Salam, la connexion 4G naqsa 3ndi bzaf"}'
42
+ ```
43
+
44
+ ### Exemple de Réponse Attendue
45
 
 
46
  L'API retournera un objet JSON avec l'intention (intent) prédite par le modèle et son score de confiance (confidence).
47
+
48
+ ```json
49
  {
50
  "intent": "declarer_panne",
51
  "confidence": 0.9954321098
52
  }
53
+ ```
54
 
55
+ ---
56
 
57
+ ## 📋 Liste des Intentions Reconnues
58
 
 
59
  Le modèle a été entraîné pour reconnaître et classifier les 9 intentions suivantes, qui sont les plus courantes dans un contexte de service client :
60
+
61
+ - **consulter_solde**: Demandes concernant le solde, la recharge ou les données restantes.
62
+ - **reclamer_facture**: Réclamations concernant une facture (montant élevé, erreur...).
63
+ - **declarer_panne**: Signalement d'un problème technique (panne réseau, connexion lente...).
64
+ - **info_forfait**: Demandes d'informations sur les produits, offres et abonnements.
65
+ - **recuperer_mot_de_passe**: Demandes liées à la réinitialisation d'un mot de passe ou d'un code.
66
+ - **salutations**: Salutations et début de conversation.
67
+ - **remerciements**: Expressions de gratitude.
68
+ - **demander_agent_humain**: Demande explicite de parler à un conseiller humain.
69
+ - **hors_scope**: Toute demande hors du périmètre du service client.
70
+
71
+ ## 🛠️ Stack Technique & Cycle de Vie du Projet
72
+
73
  Ce projet a été réalisé en suivant un cycle de vie complet, du prototypage au déploiement :
74
+
75
+ - **Modèle**: UBC-NLP/MARBERTv2 fine-tuné avec la bibliothèque transformers de Hugging Face.
76
+ - **Corpus**: Un corpus personnalisé a été assemblé en combinant la collecte de données (Twitter, YouTube), la génération par IA, et l'annotation manuelle avec Doccano.
77
+ - **Framework API**: FastAPI, pour sa rapidité et sa génération automatique de documentation.
78
+ - **Conteneurisation**: Docker, pour garantir la portabilité et la reproductibilité de l'environnement.
79
+ - **Versionnement**: Git & Git LFS pour gérer les gros fichiers de modèle (plus de 100 Mo).
80
+ - **Déploiement**: L'API est hébergée sur Hugging Face Spaces, fournissant une solution CI/CD (intégration et déploiement continus) à partir d'un dépôt Git.