ahmadouna commited on
Commit
6a76f12
·
verified ·
1 Parent(s): 425c3d7

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +7 -14
app.py CHANGED
@@ -11,7 +11,7 @@ from transformers import pipeline
11
  from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, balanced_accuracy_score
12
 
13
  # Charger le modèle pré-entraîné
14
- classifier_model = "morit/french_xlm_xnli"
15
  classifier = pipeline("zero-shot-classification", model=classifier_model)
16
 
17
  # Charger les données depuis le fichier CSV
@@ -32,7 +32,7 @@ text = st.text_area('Entrer le texte à analyser', value=selected_comment)
32
  candidate_labels = [1, 0]
33
 
34
  # Modèle de phrase pour la formation de l'hypothèse
35
- hypothesis_template = "Cet exemple est un {}."
36
 
37
  # Ajouter un bouton pour déclencher l'analyse
38
  if st.button("Analyser le texte"):
@@ -40,11 +40,11 @@ if st.button("Analyser le texte"):
40
  result = classifier(text, candidate_labels, hypothesis_template=hypothesis_template)
41
 
42
  if result['labels'][0] == 1:
43
- st.info(f"Résultat: commentaire positif avec une confiance de {result['scores'][0]*100:.2f}%")
44
  if result['labels'][0] == 0:
45
- st.info(f"Résultat: commentaire négatif avec une confiance de {result['scores'][0]*100:.2f}%")
46
  else:
47
- st.write("Veuillez entrer du texte pour l'analyse.")
48
 
49
  # Calculer les métriques de performance (vous devez ajuster ces lignes selon votre tâche)
50
  inputs = df["text"].tolist()
@@ -59,16 +59,9 @@ if st.button("Analyser le texte"):
59
  balanced_accuracy = balanced_accuracy_score(true_labels, predicted_labels)
60
 
61
  # Afficher les métriques sous forme de tableau
62
- st.header("Métriques de Performance")
63
- st.subheader("Elles sont evaluées sur des données labelisés")
64
  metrics_df = pd.DataFrame({
65
  "Métrique": ["Accuracy", "Precision", "Recall", "F1-score", "Balanced Accuracy"],
66
  "Valeur": [accuracy, precision, recall, f1, balanced_accuracy]
67
  })
68
- st.table(metrics_df)
69
-
70
- st.markdown("Accuracy c'est le ratio d'instances correctement predites surle ratio total")
71
- st.markdown("Precision c'est le Pourcentage de bonnes predictions positives sur le nombre de positifs")
72
- st.markdown("Rappel c'est le Pourcentage de bonnes predictions positives sur le total")
73
- st.markdown("f1-score est la Moyenne de la precision et du rappel")
74
- st.markdown("Balanced-Accuracy est la Moyenne des taux de vrais positifs pour chaque classe")
 
11
  from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, balanced_accuracy_score
12
 
13
  # Charger le modèle pré-entraîné
14
+ classifier_model = "MoritzLaurer/DeBERTa-v3-base-mnli-fever-anli"
15
  classifier = pipeline("zero-shot-classification", model=classifier_model)
16
 
17
  # Charger les données depuis le fichier CSV
 
32
  candidate_labels = [1, 0]
33
 
34
  # Modèle de phrase pour la formation de l'hypothèse
35
+ hypothesis_template = "This example is a {}."
36
 
37
  # Ajouter un bouton pour déclencher l'analyse
38
  if st.button("Analyser le texte"):
 
40
  result = classifier(text, candidate_labels, hypothesis_template=hypothesis_template)
41
 
42
  if result['labels'][0] == 1:
43
+ st.info(f"Résults:good comments ,accuracy {result['scores'][0]*100:.2f}%")
44
  if result['labels'][0] == 0:
45
+ st.info(f"Résults: bad comments,accuracy= {result['scores'][0]*100:.2f}%")
46
  else:
47
+ st.write("Text Analysis.")
48
 
49
  # Calculer les métriques de performance (vous devez ajuster ces lignes selon votre tâche)
50
  inputs = df["text"].tolist()
 
59
  balanced_accuracy = balanced_accuracy_score(true_labels, predicted_labels)
60
 
61
  # Afficher les métriques sous forme de tableau
62
+ st.header("Evaluation of our models")
 
63
  metrics_df = pd.DataFrame({
64
  "Métrique": ["Accuracy", "Precision", "Recall", "F1-score", "Balanced Accuracy"],
65
  "Valeur": [accuracy, precision, recall, f1, balanced_accuracy]
66
  })
67
+ st.table(metrics_df)