Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -78,7 +78,7 @@ comments = df["text"].tolist()
|
|
| 78 |
st.header("Analyse de Texte")
|
| 79 |
|
| 80 |
# Créer une selectbox pour choisir un commentaire
|
| 81 |
-
selected_comment = st.selectbox("
|
| 82 |
|
| 83 |
# Afficher le commentaire sélectionné dans l'input text
|
| 84 |
text = st.text_area('Entrer le texte à analyser', value=selected_comment)
|
|
@@ -107,15 +107,37 @@ if text and candidate_labels:
|
|
| 107 |
predictions = classifier(inputs, candidate_labels, hypothesis_template=hypothesis_template)
|
| 108 |
predicted_labels = [result['labels'][0] for result in predictions]
|
| 109 |
|
| 110 |
-
#
|
| 111 |
-
|
| 112 |
-
|
| 113 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 114 |
|
| 115 |
# Afficher les métriques sous forme de tableau
|
| 116 |
st.header("Métriques de Performance")
|
| 117 |
-
metrics_df = pd.DataFrame(
|
| 118 |
-
"Métrique": ["Precision", "Accuracy", "Recall", "F1 Score", "ROC-AUC Score"],
|
| 119 |
-
"Valeur": [results["precision"], results["accuracy"], results["recall"], results["f1"], results["roc_auc"]]
|
| 120 |
-
})
|
| 121 |
st.table(metrics_df)
|
|
|
|
|
|
| 78 |
st.header("Analyse de Texte")
|
| 79 |
|
| 80 |
# Créer une selectbox pour choisir un commentaire
|
| 81 |
+
selected_comment = st.selectbox("Veuillez sélectionner un commentaire", comments)
|
| 82 |
|
| 83 |
# Afficher le commentaire sélectionné dans l'input text
|
| 84 |
text = st.text_area('Entrer le texte à analyser', value=selected_comment)
|
|
|
|
| 107 |
predictions = classifier(inputs, candidate_labels, hypothesis_template=hypothesis_template)
|
| 108 |
predicted_labels = [result['labels'][0] for result in predictions]
|
| 109 |
|
| 110 |
+
# Déclarer un tableau pour stocker les métriques
|
| 111 |
+
metrics_table = []
|
| 112 |
+
|
| 113 |
+
# Calculer les métriques une par une et les ajouter au tableau
|
| 114 |
+
precision = load_metric("precision")
|
| 115 |
+
precision.add_batch(predictions=predicted_labels, references=true_labels)
|
| 116 |
+
precision_result = precision.compute()
|
| 117 |
+
metrics_table.append(("Precision", precision_result))
|
| 118 |
+
|
| 119 |
+
accuracy = load_metric("accuracy")
|
| 120 |
+
accuracy.add_batch(predictions=predicted_labels, references=true_labels)
|
| 121 |
+
accuracy_result = accuracy.compute()
|
| 122 |
+
metrics_table.append(("Accuracy", accuracy_result))
|
| 123 |
+
|
| 124 |
+
recall = load_metric("recall")
|
| 125 |
+
recall.add_batch(predictions=predicted_labels, references=true_labels)
|
| 126 |
+
recall_result = recall.compute()
|
| 127 |
+
metrics_table.append(("Recall", recall_result))
|
| 128 |
+
|
| 129 |
+
f1 = load_metric("f1")
|
| 130 |
+
f1.add_batch(predictions=predicted_labels, references=true_labels)
|
| 131 |
+
f1_result = f1.compute()
|
| 132 |
+
metrics_table.append(("F1 Score", f1_result))
|
| 133 |
+
|
| 134 |
+
roc_auc = load_metric("roc_auc")
|
| 135 |
+
roc_auc.add_batch(predictions=predicted_labels, references=true_labels)
|
| 136 |
+
roc_auc_result = roc_auc.compute()
|
| 137 |
+
metrics_table.append(("ROC-AUC Score", roc_auc_result))
|
| 138 |
|
| 139 |
# Afficher les métriques sous forme de tableau
|
| 140 |
st.header("Métriques de Performance")
|
| 141 |
+
metrics_df = pd.DataFrame(metrics_table, columns=["Métrique", "Valeur"])
|
|
|
|
|
|
|
|
|
|
| 142 |
st.table(metrics_df)
|
| 143 |
+
|