Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -11,7 +11,7 @@ from transformers import pipeline
|
|
11 |
from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, balanced_accuracy_score
|
12 |
|
13 |
# Charger le modèle pré-entraîné
|
14 |
-
classifier_model = "
|
15 |
classifier = pipeline("zero-shot-classification", model=classifier_model)
|
16 |
|
17 |
# Charger les données depuis le fichier CSV
|
@@ -32,7 +32,7 @@ text = st.text_area('Entrer le texte à analyser', value=selected_comment)
|
|
32 |
candidate_labels = [1, 0]
|
33 |
|
34 |
# Modèle de phrase pour la formation de l'hypothèse
|
35 |
-
hypothesis_template = "
|
36 |
|
37 |
# Ajouter un bouton pour déclencher l'analyse
|
38 |
if st.button("Analyser le texte"):
|
@@ -40,11 +40,11 @@ if st.button("Analyser le texte"):
|
|
40 |
result = classifier(text, candidate_labels, hypothesis_template=hypothesis_template)
|
41 |
|
42 |
if result['labels'][0] == 1:
|
43 |
-
st.info(f"
|
44 |
if result['labels'][0] == 0:
|
45 |
-
st.info(f"
|
46 |
else:
|
47 |
-
st.write("
|
48 |
|
49 |
# Calculer les métriques de performance (vous devez ajuster ces lignes selon votre tâche)
|
50 |
inputs = df["text"].tolist()
|
@@ -59,16 +59,9 @@ if st.button("Analyser le texte"):
|
|
59 |
balanced_accuracy = balanced_accuracy_score(true_labels, predicted_labels)
|
60 |
|
61 |
# Afficher les métriques sous forme de tableau
|
62 |
-
st.header("
|
63 |
-
st.subheader("Elles sont evaluées sur des données labelisés")
|
64 |
metrics_df = pd.DataFrame({
|
65 |
"Métrique": ["Accuracy", "Precision", "Recall", "F1-score", "Balanced Accuracy"],
|
66 |
"Valeur": [accuracy, precision, recall, f1, balanced_accuracy]
|
67 |
})
|
68 |
-
st.table(metrics_df)
|
69 |
-
|
70 |
-
st.markdown("Accuracy c'est le ratio d'instances correctement predites surle ratio total")
|
71 |
-
st.markdown("Precision c'est le Pourcentage de bonnes predictions positives sur le nombre de positifs")
|
72 |
-
st.markdown("Rappel c'est le Pourcentage de bonnes predictions positives sur le total")
|
73 |
-
st.markdown("f1-score est la Moyenne de la precision et du rappel")
|
74 |
-
st.markdown("Balanced-Accuracy est la Moyenne des taux de vrais positifs pour chaque classe")
|
|
|
11 |
from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, balanced_accuracy_score
|
12 |
|
13 |
# Charger le modèle pré-entraîné
|
14 |
+
classifier_model = "MoritzLaurer/DeBERTa-v3-base-mnli-fever-anli"
|
15 |
classifier = pipeline("zero-shot-classification", model=classifier_model)
|
16 |
|
17 |
# Charger les données depuis le fichier CSV
|
|
|
32 |
candidate_labels = [1, 0]
|
33 |
|
34 |
# Modèle de phrase pour la formation de l'hypothèse
|
35 |
+
hypothesis_template = "This example is a {}."
|
36 |
|
37 |
# Ajouter un bouton pour déclencher l'analyse
|
38 |
if st.button("Analyser le texte"):
|
|
|
40 |
result = classifier(text, candidate_labels, hypothesis_template=hypothesis_template)
|
41 |
|
42 |
if result['labels'][0] == 1:
|
43 |
+
st.info(f"Résults:good comments ,accuracy {result['scores'][0]*100:.2f}%")
|
44 |
if result['labels'][0] == 0:
|
45 |
+
st.info(f"Résults: bad comments,accuracy= {result['scores'][0]*100:.2f}%")
|
46 |
else:
|
47 |
+
st.write("Text Analysis.")
|
48 |
|
49 |
# Calculer les métriques de performance (vous devez ajuster ces lignes selon votre tâche)
|
50 |
inputs = df["text"].tolist()
|
|
|
59 |
balanced_accuracy = balanced_accuracy_score(true_labels, predicted_labels)
|
60 |
|
61 |
# Afficher les métriques sous forme de tableau
|
62 |
+
st.header("Evaluation of our models")
|
|
|
63 |
metrics_df = pd.DataFrame({
|
64 |
"Métrique": ["Accuracy", "Precision", "Recall", "F1-score", "Balanced Accuracy"],
|
65 |
"Valeur": [accuracy, precision, recall, f1, balanced_accuracy]
|
66 |
})
|
67 |
+
st.table(metrics_df)
|
|
|
|
|
|
|
|
|
|
|
|