Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -1,802 +1,682 @@
|
|
1 |
import gradio as gr
|
2 |
-
from gradio_client import Client
|
3 |
-
|
4 |
from openai import OpenAI
|
5 |
-
from pydantic import BaseModel
|
6 |
import os
|
7 |
import requests
|
8 |
from PIL import Image
|
9 |
import tempfile
|
10 |
import numpy as np
|
11 |
-
|
12 |
import markdown
|
13 |
import base64
|
|
|
|
|
|
|
14 |
|
|
|
|
|
15 |
|
16 |
-
|
17 |
-
|
18 |
-
|
19 |
-
|
20 |
-
|
21 |
-
|
22 |
-
|
23 |
-
|
24 |
-
|
25 |
-
|
26 |
-
|
27 |
-
return "Clé API définie avec succès !"
|
28 |
-
else:
|
29 |
-
return "La clé API est requise !"
|
30 |
|
31 |
-
#
|
32 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
33 |
try:
|
34 |
-
|
35 |
-
|
36 |
-
Analysez le texte suivant à la recherche de biais cognitifs potentiels et donnez des conseils sur la manière de les atténuer.
|
37 |
-
Répondez dans le même langage de l'utilisateur.
|
38 |
-
Liste de biais cognitifs
|
39 |
-
|
40 |
-
Biais attentionnels
|
41 |
-
Biais d'attention — avoir ses perceptions influencées par ses propres centres d’intérêt.
|
42 |
-
|
43 |
-
Biais mnésique
|
44 |
-
Biais de négativité — également connu sous le nom d'effet de négativité, est la notion que, même à intensité égale, les choses de nature plus négative ont un effet plus important sur l'état et les processus psychologiques que les choses neutres ou positives.
|
45 |
-
Effet de récence — mieux se souvenir des dernières informations auxquelles on a été confronté.
|
46 |
-
Effet de simple exposition — avoir préalablement été exposé à une personne ou à une situation la rend plus positive.
|
47 |
-
Effet de primauté — mieux se souvenir des premiers éléments d'une liste mémorisée.
|
48 |
-
Oubli de la fréquence de base — oublier de considérer la fréquence de base de l'occurrence d'un événement alors qu'on cherche à en évaluer une probabilité.
|
49 |
-
|
50 |
-
Biais de jugement
|
51 |
-
Appel à la probabilité — tendance à prendre quelque chose pour vrai parce que cela peut probablement être le cas.
|
52 |
-
Appel à la tradition — tendance à considérer que l’ancienneté d’une théorie ou d’une assertion étaye sa véracité.
|
53 |
-
Aversion à la dépossession — tendance à donner plus de valeur à un bien ou un service lorsque celui-ci est sa propriété.
|
54 |
-
Biais d'ancrage — influence laissée par la première impression.
|
55 |
-
Biais d'attribution (attribution causale) — façon d'attribuer la responsabilité d'une situation à soi ou aux autres.
|
56 |
-
|
57 |
-
Biais d'attribution hostile
|
58 |
-
Biais d'auto-complaisance — se croire à l'origine de ses réussites, mais pas de ses échecs.
|
59 |
-
Biais d'engagement — tendance à poursuivre l'action engagée malgré la confrontation à des résultats de plus en plus négatifs.
|
60 |
-
Biais d'équiprobabilité — tendance à penser qu'en l'absence d'information, des évènements sont équiprobables.
|
61 |
-
Biais d'immunité à l'erreur — ne pas voir ses propres erreurs.
|
62 |
-
Biais d'intentionnalité — consiste à percevoir l'action d'une volonté ou d'une décision derrière ce qui est fortuit ou accidentel.
|
63 |
-
Biais de confirmation — tendance à valider ses opinions auprès des instances qui les confirment, et à rejeter d'emblée les instances qui les réfutent.
|
64 |
-
Biais de normalité — tendance à penser que tout va se passer comme d'habitude et à ignorer les signes avant-coureurs6.
|
65 |
-
Biais de présentéisme — privilégier les facteurs présents est plus économique cognitivement à modéliser que les facteurs absents.
|
66 |
-
Biais de proportionnalité — favoriser l'idée potentiellement fausse que si l'on observe une augmentation des manifestations d'un phénomène, c'est que le nombre d'occurrences de ce phénomène croît en effet, sans voir que cette augmentation peut n'être que la conséquence de l'amélioration de l'outil d'observation.
|
67 |
-
Biais de statu quo — la nouveauté est vue comme apportant plus de risques que d'avantages possibles et amène une résistance au changement.
|
68 |
-
Biais égocentrique — se juger sous un meilleur jour qu'en réalité.
|
69 |
-
Biais rétrospectif ou l'effet « je le savais depuis le début » — tendance à juger a posteriori qu'un événement était prévisible.
|
70 |
-
Corrélation illusoire — perception d'une corrélation entre deux événements qui n'existe pas ou qui est bien plus faible en réalité.
|
71 |
-
Croyance en un monde juste — tendance à considérer que la bonne action d'une personne lui sera nécessairement bénéfique tandis qu'une mauvaise action lui sera nécessairement néfaste.
|
72 |
-
Effet d'ambiguïté — tendance à éviter les options pour lesquelles on manque d'information.
|
73 |
-
Effet de halo — une perception sélective d'informations allant dans le sens d'une première impression que l'on cherche à confirmer.
|
74 |
-
Effet de simple exposition — avoir préalablement été exposé à quelqu'un ou à une situation le/la rend plus positive.
|
75 |
-
Effet Dunning-Kruger — les moins compétents dans un domaine surestiment leur compétence, alors que les plus compétents ont tendance à sous-estimer leur compétence.
|
76 |
-
Effet Ikea — tendance pour les consommateurs à accorder une valeur supérieure aux produits qu'ils ont partiellement créés.
|
77 |
-
Effet moins-c'est-mieux — tendance à effectuer un choix a priori moins avantageux objectivement (par exemple apprécier plus une coupe de glace de moindre quantité mais mieux remplie).
|
78 |
-
Effet Stroop — incapacité d'ignorer une information non pertinente.
|
79 |
-
Effet râteau — exagérer la régularité du hasard.
|
80 |
-
Illusion de fréquence — tendance, après avoir remarqué une chose pour la première fois, à la remarquer plus souvent et à la croire plus fréquente.
|
81 |
-
Erreur fondamentale d'attribution (ou biais d'internalité) — accorder plus d'importance aux facteurs internes à l'orateur (intentions, émotions) qu'à son discours ou à ses actes (faits tangibles). Couramment utilisé pour discréditer les éléments rationnels par des éléments émotionnels, qui sont en pratique souvent imaginés et attribués sans preuve à l'orateur puisque ses émotions internes sont difficilement discernables a priori.[réf. nécessaire]
|
82 |
-
Illusion de savoir — dans une situation en apparence identique à une situation commune, réagir de manière habituelle, sans éprouver le besoin de rechercher les informations complémentaires qui auraient mis en évidence une différence par rapport à la situation habituelle. Il peut ainsi faire état d'une mauvaise croyance face à la réalité.
|
83 |
-
Illusion monétaire — confusion d'un agent économique entre variation du niveau général des prix et variation des prix relatifs.
|
84 |
-
Illusion de transparence et illusion de connaissance asymétrique.
|
85 |
-
Loi de l'instrument (ou marteau de Maslow) — tentation qui consiste à travestir la réalité d'un problème en le transformant en fonction des réponses (les outils) dont on dispose.
|
86 |
-
Sophisme génétique — tendance à juger le contenu en fonction du contenant, le message en fonction du messager, le fond suivant la forme.
|
87 |
-
Supériorité illusoire — surestimation de ses propres qualités et capacités.
|
88 |
-
Tache aveugle à l'égard des préjugés — tendance à ne pas percevoir les biais cognitifs à l'œuvre dans ses propres jugements ou décisions, et ce, aux dépens d'informations plus objectives.
|
89 |
-
|
90 |
-
Biais de raisonnement
|
91 |
-
Biais de confirmation d'hypothèse — préférer les éléments qui confirment plutôt que ceux qui infirment une hypothèse.
|
92 |
-
Biais d'évaluation de probabilités.
|
93 |
-
Biais de représentativité — considérer un ou certains éléments comme représentatifs d'une population.
|
94 |
-
Biais de disponibilité — ne pas chercher d'autres informations que celles immédiatement disponibles.
|
95 |
-
Biais d'appariement — se focaliser sur les éléments contenus dans l'énoncé d'un problème.
|
96 |
-
Biais du survivant — se focaliser sur les éléments ayant passé avec succès un processus de sélection pour en tirer des conclusions sur la totalité des éléments.
|
97 |
-
Réduction de la dissonance cognitive — réinterpréter une situation pour éliminer les contradictions.
|
98 |
-
Effet rebond (assimilable à l'effet Streisand) — une pensée que l'on cherche à inhiber devient plus saillante.
|
99 |
-
Illusion des séries — percevoir à tort des coïncidences dans des données au hasard.
|
100 |
-
Perception sélective — interpréter de manière sélective des informations en fonction de sa propre expérience.
|
101 |
-
Réification du savoir — considérer les connaissances comme des objets immuables et extérieurs.
|
102 |
-
Effet de domination asymétrique ou effet leurre — choisir pour un consommateur entre deux options celle qui est la plus proche d'une troisième option malgré la forte asymétrie d'information.
|
103 |
-
Coût irrécupérable — considérer les coûts déjà engagés dans une décision.
|
104 |
-
Oubli de la fréquence de base — oublier la fréquence de base de l'occurrence d'un événement dont on cherche à évaluer la probabilité.
|
105 |
-
|
106 |
-
Biais liés à la personnalité
|
107 |
-
Biais d'optimisme — optimisme dispositionnel7, optimisme irréaliste8, parfois présenté comme un « non-pessimisme dispositionnel »9 et d'optimisme comparatif10,11 qui semble très ancrée chez l'être humain ; il s'agit d'une croyance individuelle qui est que le sujet se juge moins exposé à la plupart des risques qu'autrui12,13. On peut évaluer le degré d'adhésion à cette croyance en demandant au sujet d’évaluer son risque de rencontrer un événement négatif en comparaison de celui d’autrui13. Cette croyance aggrave certaines prises de risques et est souvent impliquée dans l'accidentologie routière (le conducteur s'estimant à tort plus habile que les autres pour éviter les accidents, même quand il ne respecte pas le code de la route, en raison d'une surestimation infondée et irréaliste de ses capacités)14,15,16,17.
|
108 |
-
Effet Barnum — accepter une vague description de la personnalité comme s'appliquant spécifiquement à soi-même (ex. : horoscope).
|
109 |
-
|
110 |
-
S'il n'y a pas de biais, respectez le format demandé et indiquez qu'aucun biais n'a été détecté.
|
111 |
-
"""
|
112 |
-
|
113 |
-
completion = client.beta.chat.completions.parse(
|
114 |
-
model="gpt-4o-mini",
|
115 |
messages=[
|
116 |
-
{"role": "
|
117 |
-
{"role": "user", "content": objective_text}
|
118 |
],
|
119 |
-
temperature=0.
|
120 |
max_tokens=800,
|
121 |
-
response_format=
|
122 |
)
|
123 |
-
|
124 |
-
# Obtenir la réponse structurée
|
125 |
-
response_content = completion.choices[0].message.parsed
|
126 |
-
return response_content.dict()
|
127 |
|
128 |
-
|
129 |
-
|
130 |
-
|
131 |
-
|
132 |
-
# Optimiser la génération d'image pour utiliser directement l'URL
|
133 |
-
def generate_persona_image(first_name, last_name, age, gender, persona_description,
|
134 |
-
skin_color, eye_color, hair_style, hair_color, facial_expression,
|
135 |
-
posture, clothing_style, accessories):
|
136 |
-
if not first_name or not last_name or not age or not gender:
|
137 |
-
return gr.Info("Veuillez remplir tous les champs pour générer l'image du persona.")
|
138 |
-
|
139 |
-
prompt = f"one person. {first_name} {last_name}, {gender}, {age} years old. Realist photo."
|
140 |
-
|
141 |
-
# Ajouter les nouvelles informations au prompt
|
142 |
-
if skin_color:
|
143 |
-
skin_color_eng = skin_color_mapping.get(skin_color, skin_color)
|
144 |
-
prompt += f" Skin tone: {skin_color_eng}."
|
145 |
-
if eye_color:
|
146 |
-
eye_color_eng = eye_color_mapping.get(eye_color, eye_color)
|
147 |
-
prompt += f" Eye color: {eye_color_eng}."
|
148 |
-
if hair_style:
|
149 |
-
hair_style_eng = hair_style_mapping.get(hair_style, hair_style)
|
150 |
-
prompt += f" Hairstyle: {hair_style_eng}."
|
151 |
-
if hair_color:
|
152 |
-
hair_color_eng = hair_color_mapping.get(hair_color, hair_color)
|
153 |
-
prompt += f" Hair color: {hair_color_eng}."
|
154 |
-
if facial_expression:
|
155 |
-
facial_expression_eng = facial_expression_mapping.get(facial_expression, facial_expression)
|
156 |
-
prompt += f" Facial expression: {facial_expression_eng}."
|
157 |
-
if posture:
|
158 |
-
posture_eng = posture_mapping.get(posture, posture)
|
159 |
-
prompt += f" Posture: {posture_eng}."
|
160 |
-
if clothing_style:
|
161 |
-
clothing_style_eng = clothing_style_mapping.get(clothing_style, clothing_style)
|
162 |
-
prompt += f" Clothing style: {clothing_style_eng}."
|
163 |
-
if accessories:
|
164 |
-
accessories_eng = accessories_mapping.get(accessories, accessories)
|
165 |
-
prompt += f" Accessories: {accessories_eng}."
|
166 |
-
|
167 |
-
prompt += f" {persona_description}."
|
168 |
-
|
169 |
-
response = client.images.generate(
|
170 |
-
model="dall-e-3",
|
171 |
-
prompt=prompt,
|
172 |
-
size="1024x1024",
|
173 |
-
n=1,
|
174 |
-
)
|
175 |
-
image_url = response.data[0].url
|
176 |
-
response_image = requests.get(image_url)
|
177 |
-
temp_image = tempfile.NamedTemporaryFile(delete=False, suffix='.png')
|
178 |
-
with open(temp_image.name, 'wb') as f:
|
179 |
-
f.write(response_image.content)
|
180 |
-
|
181 |
-
global temp_image_path
|
182 |
-
temp_image_path = temp_image.name
|
183 |
-
|
184 |
-
return temp_image.name # Retourner le chemin local de l'image
|
185 |
-
|
186 |
-
# Ajouter les dictionnaires de correspondance
|
187 |
-
posture_mapping = {
|
188 |
-
"": "",
|
189 |
-
"Debout": "standing up",
|
190 |
-
"Assis": "sitting",
|
191 |
-
"Allongé": "lying down",
|
192 |
-
"Accroupi": "crouching",
|
193 |
-
"En mouvement": "moving",
|
194 |
-
"Reposé": "resting"
|
195 |
-
}
|
196 |
-
|
197 |
-
facial_expression_mapping = {
|
198 |
-
"": "",
|
199 |
-
"Souriant": "smiling",
|
200 |
-
"Sérieux": "serious",
|
201 |
-
"Triste": "sad",
|
202 |
-
"En colère": "angry",
|
203 |
-
"Surpris": "surprised",
|
204 |
-
"Pensif": "thoughtful"
|
205 |
-
}
|
206 |
-
|
207 |
-
skin_color_mapping = {
|
208 |
-
"": "",
|
209 |
-
"Clair": "light",
|
210 |
-
"Moyen": "medium",
|
211 |
-
"Foncé": "dark",
|
212 |
-
"Très foncé": "very dark"
|
213 |
-
}
|
214 |
-
|
215 |
-
eye_color_mapping = {
|
216 |
-
"": "",
|
217 |
-
"Bleu": "blue",
|
218 |
-
"Vert": "green",
|
219 |
-
"Marron": "brown",
|
220 |
-
"Gris": "gray"
|
221 |
-
}
|
222 |
-
|
223 |
-
hair_style_mapping = {
|
224 |
-
"": "",
|
225 |
-
"Court": "short",
|
226 |
-
"Long": "long",
|
227 |
-
"Bouclé": "curly",
|
228 |
-
"Rasé": "shaved",
|
229 |
-
"Chauve": "bald",
|
230 |
-
"Tresses": "braided",
|
231 |
-
"Queue de cheval": "ponytail",
|
232 |
-
"Coiffure afro": "afro",
|
233 |
-
"Dégradé": "fade"
|
234 |
-
}
|
235 |
-
|
236 |
-
hair_color_mapping = {
|
237 |
-
"": "",
|
238 |
-
"Blond": "blonde",
|
239 |
-
"Brun": "brown",
|
240 |
-
"Noir": "black",
|
241 |
-
"Roux": "red",
|
242 |
-
"Gris": "gray",
|
243 |
-
"Blanc": "white"
|
244 |
-
}
|
245 |
-
|
246 |
-
clothing_style_mapping = {
|
247 |
-
"": "",
|
248 |
-
"Décontracté": "casual",
|
249 |
-
"Professionnel": "professional",
|
250 |
-
"Sportif": "sporty"
|
251 |
-
}
|
252 |
-
|
253 |
-
accessories_mapping = {
|
254 |
-
"": "",
|
255 |
-
"Lunettes": "glasses",
|
256 |
-
"Montre": "watch",
|
257 |
-
"Chapeau": "hat"
|
258 |
-
}
|
259 |
-
|
260 |
-
# Fonction pour affiner les contributions de l'utilisateur et de l'IA
|
261 |
-
def refine_persona_details(first_name, last_name, age, field_name, field_value, biases, marketing_objectives):
|
262 |
-
system_prompt = f"""
|
263 |
-
Vous êtes un assistant IA aidant à affiner les détails d'un persona marketing.
|
264 |
-
Ne traitez que le champ suivant : {field_name}.
|
265 |
-
Basé sur les informations fournies, proposez des suggestions pour améliorer le profil du persona.
|
266 |
-
S'il n'y a pas d'informations spécifiques, indiquez qu'il faut plus de détails.
|
267 |
-
Soyez extrêmement concis et clair.
|
268 |
-
|
269 |
-
Informations du persona :
|
270 |
-
Nom : {first_name} {last_name}
|
271 |
-
Âge : {age}
|
272 |
|
273 |
-
|
274 |
-
|
|
|
275 |
|
276 |
-
|
277 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
278 |
|
279 |
-
|
280 |
-
|
281 |
-
|
282 |
-
|
283 |
-
|
284 |
-
|
285 |
-
|
286 |
-
|
287 |
-
)
|
288 |
-
|
289 |
-
|
290 |
-
|
291 |
-
|
292 |
-
|
293 |
-
|
294 |
-
|
295 |
-
|
296 |
-
|
297 |
-
|
298 |
-
|
299 |
-
|
300 |
-
api_key_input = gr.Textbox(label="Entrez votre clé API OpenAI", type="password")
|
301 |
-
api_key_button = gr.Button("Définir la clé API")
|
302 |
-
api_key_status = gr.Textbox(label="Statut de la clé API", interactive=False)
|
303 |
-
api_key_button.click(fn=set_openai_api_key, inputs=api_key_input, outputs=api_key_status)
|
304 |
-
|
305 |
-
with gr.Tab("Étape 1: Objectif et analyse des biais"):
|
306 |
-
objective_input = gr.Textbox(label="Quel est votre objectif pour la création de ce persona ?", lines=3)
|
307 |
-
analyze_button = gr.Button("Analyser les biais")
|
308 |
-
bias_analysis_output = gr.Markdown()
|
309 |
-
word_count_state = gr.State(0) # Ajout d'un état pour le nombre de mots
|
310 |
-
realtime_analysis = gr.Radio(label="Analyse en temps réel", choices=["Activée", "Désactivée"], value="Désactivée")
|
311 |
-
word_count_display = gr.Markdown() # Ajout d'un affichage pour le compteur de mots
|
312 |
-
|
313 |
-
# Définir les scénarios de suggestion
|
314 |
-
suggestion1 = "Je souhaite créer un persona pour promouvoir un nouveau service de livraison écologique destiné aux jeunes professionnels urbains soucieux de l'environnement. Nous avons réalisé une étude de marché et identifié un besoin pour des solutions de livraison plus durables et rapides. Pour cela, nous voulons créer un persona qui incarne ces valeurs et besoins. Plus spécifiquement, nous ciblons les personnes âgées de 25 à 35 ans, vivant dans des zones urbaines, travaillant à temps plein et ayant un intérêt pour les questions environnementales."
|
315 |
-
suggestion2 = "J'envisage de développer une application mobile de fitness personnalisée pour les seniors actifs qui cherchent à maintenir une vie saine et sociale. L'application proposera des programmes d'entraînement adaptés aux besoins et aux capacités des seniors, ainsi que des fonctionnalités pour suivre les progrès et rester motivé. Le persona devrait refléter les besoins et les préférences des seniors actifs, en mettant l'accent sur la facilité d'utilisation, la convivialité et la personnalisation. Nous visons à créer une expérience positive et engageante pour les utilisateurs."
|
316 |
-
|
317 |
-
# Ajouter les boutons de suggestion
|
318 |
-
with gr.Row():
|
319 |
-
suggestion_button1 = gr.Button("Suggestion 1")
|
320 |
-
suggestion_button2 = gr.Button("Suggestion 2")
|
321 |
-
|
322 |
-
# Définir les actions des boutons pour remplir le champ objective_input
|
323 |
-
suggestion_button1.click(fn=lambda: suggestion1, inputs=[], outputs=objective_input)
|
324 |
-
suggestion_button2.click(fn=lambda: suggestion2, inputs=[], outputs=objective_input)
|
325 |
-
|
326 |
-
# Fonction pour afficher dynamiquement les biais et les conseils
|
327 |
-
def display_biases_and_advice(objective_text, previous_count, realtime):
|
328 |
-
current_count = len(objective_text.split())
|
329 |
-
if realtime == "Activée" and current_count - previous_count >= 10:
|
330 |
-
analysis_result = analyze_biases(objective_text)
|
331 |
-
if "error" in analysis_result:
|
332 |
-
return f"Erreur: {analysis_result['error']}", current_count, f"Nombre de mots : {current_count}"
|
333 |
-
|
334 |
-
biases = analysis_result.get("biases", [])
|
335 |
-
advice = analysis_result.get("advice", [])
|
336 |
-
|
337 |
-
if not biases and not advice:
|
338 |
-
return "Aucun biais détecté ou conseils disponibles.", current_count, f"Nombre de mots : {current_count}"
|
339 |
-
|
340 |
-
content = "<div style='display: flex; flex-wrap: wrap;'>"
|
341 |
-
for bias, adv in zip(biases, advice):
|
342 |
-
content += f"""
|
343 |
-
<div style='flex: 1; min-width: 300px; padding: 10px; text-align: center; border: 1px solid lightgray; border-radius: 20px; margin: 5px;'>
|
344 |
-
<strong>{bias.upper()}</strong><br><br>{adv}
|
345 |
-
</div>
|
346 |
-
"""
|
347 |
-
content += "</div>"
|
348 |
-
return content, current_count, f"Nombre de mots : {current_count}"
|
349 |
-
return gr.update(), previous_count, f"Nombre de mots : {current_count}" # Conserver l'état précédent sans changement
|
350 |
-
|
351 |
-
# Utilisation du bouton pour déclencher l'analyse des biais
|
352 |
-
def analyze_button_click(objective_text, previous_count, realtime):
|
353 |
-
current_count = len(objective_text.split())
|
354 |
-
analysis_result = analyze_biases(objective_text)
|
355 |
-
if "error" in analysis_result:
|
356 |
-
return f"Erreur: {analysis_result['error']}", current_count, f"Nombre de mots : {current_count}"
|
357 |
-
|
358 |
-
biases = analysis_result.get("biases", [])
|
359 |
-
advice = analysis_result.get("advice", [])
|
360 |
-
|
361 |
-
if not biases and not advice:
|
362 |
-
return "Aucun biais détecté ou conseils disponibles.", current_count, f"Nombre de mots : {current_count}"
|
363 |
-
|
364 |
-
content = "<div style='display: flex; flex-wrap: wrap;'>"
|
365 |
-
for bias, adv in zip(biases, advice):
|
366 |
-
content += f"""
|
367 |
-
<div style='flex: 1; min-width: 300px; padding: 10px; text-align: center; border: 1px solid lightgray; border-radius: 20px; margin: 5px;'>
|
368 |
-
<strong>{bias.upper()}</strong><br><br>{adv}
|
369 |
-
</div>
|
370 |
-
"""
|
371 |
-
content += "</div>"
|
372 |
-
return content, current_count, f"Nombre de mots : {current_count}"
|
373 |
-
|
374 |
-
# Utilisation du bouton pour déclencher l'analyse des biais
|
375 |
-
analyze_button.click(
|
376 |
-
fn=analyze_button_click,
|
377 |
-
inputs=[objective_input, word_count_state, realtime_analysis],
|
378 |
-
outputs=[bias_analysis_output, word_count_state, word_count_display]
|
379 |
-
)
|
380 |
|
381 |
-
|
382 |
-
|
383 |
-
|
384 |
-
|
385 |
-
|
|
|
|
|
|
|
386 |
)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
387 |
|
388 |
-
|
389 |
-
|
390 |
-
|
391 |
-
|
392 |
-
|
393 |
-
)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
394 |
|
395 |
-
|
396 |
-
|
397 |
-
|
398 |
-
|
399 |
-
|
400 |
-
|
401 |
-
|
402 |
-
|
403 |
-
|
404 |
-
|
405 |
-
|
406 |
-
|
407 |
-
|
408 |
-
|
409 |
-
|
410 |
-
|
411 |
-
|
412 |
-
|
413 |
-
#generate_image_button::after {
|
414 |
-
content: "Attention : Les algorithmes peuvent introduire des biais dans les images générées.";
|
415 |
-
position: absolute;
|
416 |
-
background: #f9f9f9;
|
417 |
-
border: 1px solid #ccc;
|
418 |
-
padding: 5px;
|
419 |
-
border-radius: 5px;
|
420 |
-
top: 100%;
|
421 |
-
left: 50%;
|
422 |
-
transform: translateX(-50%);
|
423 |
-
white-space: normal;
|
424 |
-
opacity: 0;
|
425 |
-
visibility: hidden;
|
426 |
-
transition: opacity 0.5s ease-in-out, visibility 0.5s;
|
427 |
-
width: max-content;
|
428 |
-
max-width: 300px;
|
429 |
-
}
|
430 |
-
#generate_image_button:hover::after {
|
431 |
-
visibility: visible;
|
432 |
-
opacity: 0;
|
433 |
-
transition-delay: 1.5s;
|
434 |
-
}
|
435 |
-
#generate_image_button:hover::after {
|
436 |
-
opacity: 1;
|
437 |
-
}
|
438 |
-
</style>
|
439 |
-
""")
|
440 |
-
|
441 |
-
# Ajouter une liste accordéon pour les détails du prompt DALL-E 3
|
442 |
-
with gr.Accordion("Détails du prompt DALL-E 3"):
|
443 |
-
# Section 1: Caractéristiques physiques
|
444 |
-
with gr.Accordion("1. Caractéristiques physiques", open=False):
|
445 |
-
skin_color_input = gr.Dropdown(label="Teint de la peau", choices=list(skin_color_mapping.keys()), value="")
|
446 |
-
eye_color_input = gr.Dropdown(label="Couleur des yeux", choices=list(eye_color_mapping.keys()), value="")
|
447 |
-
hair_style_input = gr.Dropdown(label="Coiffure", choices=list(hair_style_mapping.keys()), value="")
|
448 |
-
hair_color_input = gr.Dropdown(label="Couleur des cheveux", choices=list(hair_color_mapping.keys()), value="")
|
449 |
-
|
450 |
-
# Section 2: Expressions faciales et posture
|
451 |
-
with gr.Accordion("2. Expressions faciales et posture", open=False):
|
452 |
-
facial_expression_input = gr.Dropdown(label="Expression faciale", choices=list(facial_expression_mapping.keys()), value="")
|
453 |
-
posture_input = gr.Dropdown(label="Posture", choices=list(posture_mapping.keys()), value="")
|
454 |
-
|
455 |
-
# Section 3: Style vestimentaire
|
456 |
-
with gr.Accordion("3. Style vestimentaire", open=False):
|
457 |
-
clothing_style_input = gr.Dropdown(label="Style de vêtements", choices=list(clothing_style_mapping.keys()), value="")
|
458 |
-
accessories_input = gr.Dropdown(label="Accessoires", choices=list(accessories_mapping.keys()), value="")
|
459 |
-
|
460 |
-
generate_image_button.click(
|
461 |
-
fn=generate_persona_image,
|
462 |
-
inputs=[
|
463 |
-
first_name_input, last_name_input, age_input, gender_input, persona_description_input,
|
464 |
-
skin_color_input, eye_color_input, hair_style_input, hair_color_input,
|
465 |
-
facial_expression_input, posture_input,
|
466 |
-
clothing_style_input, accessories_input
|
467 |
-
],
|
468 |
-
outputs=persona_image_output
|
469 |
)
|
|
|
470 |
|
471 |
-
|
472 |
-
|
473 |
|
474 |
-
#
|
475 |
-
|
476 |
-
|
477 |
|
478 |
-
|
479 |
-
|
480 |
-
|
481 |
-
|
482 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
483 |
skin_color_input, eye_color_input, hair_style_input, hair_color_input,
|
484 |
facial_expression_input, posture_input, clothing_style_input, accessories_input
|
485 |
]
|
486 |
-
|
487 |
-
|
488 |
-
|
489 |
-
|
490 |
-
|
491 |
-
|
492 |
-
|
493 |
-
|
494 |
-
|
495 |
-
|
496 |
-
|
497 |
-
|
498 |
-
|
499 |
-
|
500 |
-
|
501 |
-
|
502 |
-
|
503 |
-
|
504 |
-
|
505 |
-
|
506 |
-
|
507 |
-
|
508 |
-
|
509 |
-
|
510 |
-
|
511 |
-
|
512 |
-
|
513 |
-
|
514 |
-
|
515 |
-
|
516 |
-
|
517 |
-
|
518 |
-
|
519 |
-
|
520 |
-
|
521 |
-
|
522 |
-
|
523 |
-
|
524 |
-
|
525 |
-
|
526 |
-
|
527 |
-
|
528 |
-
|
529 |
-
|
530 |
-
|
531 |
-
|
532 |
-
|
533 |
-
|
534 |
-
|
535 |
-
|
536 |
-
|
537 |
-
|
538 |
-
|
539 |
-
|
540 |
-
|
541 |
-
|
542 |
-
|
543 |
-
|
544 |
-
|
545 |
-
|
546 |
-
|
547 |
-
|
548 |
-
|
549 |
-
|
550 |
-
|
551 |
-
|
552 |
-
|
553 |
-
|
554 |
-
|
555 |
-
|
556 |
-
|
557 |
-
|
558 |
-
|
559 |
-
|
560 |
-
|
561 |
-
|
562 |
-
|
563 |
-
|
564 |
-
|
565 |
-
|
566 |
-
|
567 |
-
|
568 |
-
|
569 |
-
|
570 |
-
|
571 |
-
|
572 |
-
|
573 |
-
|
574 |
-
|
575 |
-
|
576 |
-
|
577 |
-
|
578 |
-
|
579 |
-
|
580 |
-
|
581 |
-
|
582 |
-
|
583 |
-
|
584 |
-
|
585 |
-
|
586 |
-
|
587 |
-
|
588 |
-
|
589 |
-
|
590 |
-
|
591 |
-
|
592 |
-
|
593 |
-
|
594 |
-
|
595 |
-
|
596 |
-
|
597 |
-
|
598 |
-
|
599 |
-
|
600 |
-
|
601 |
-
|
602 |
-
|
603 |
-
|
604 |
-
|
605 |
-
|
606 |
-
|
607 |
-
|
608 |
-
|
609 |
-
|
610 |
-
|
611 |
-
|
612 |
-
|
613 |
-
|
614 |
-
|
615 |
-
|
616 |
-
|
617 |
-
|
618 |
-
|
619 |
-
|
620 |
-
|
621 |
-
|
622 |
-
|
623 |
-
inputs
|
624 |
-
|
625 |
-
)
|
626 |
-
refine_pain_points_button.click(
|
627 |
-
fn=lambda first_name, last_name, age, value, biases, marketing_objectives: refine_persona_details(first_name, last_name, age, "Points de douleur", value, biases, marketing_objectives),
|
628 |
-
inputs=[first_name_input, last_name_input, age_input, pain_points_input, bias_analysis_output, objective_input],
|
629 |
-
outputs=[]
|
630 |
-
)
|
631 |
-
refine_product_goals_button.click(
|
632 |
-
fn=lambda first_name, last_name, age, value, biases, marketing_objectives: refine_persona_details(first_name, last_name, age, "Objectifs d’utilisation du produit", value, biases, marketing_objectives),
|
633 |
-
inputs=[first_name_input, last_name_input, age_input, product_goals_input, bias_analysis_output, objective_input],
|
634 |
-
outputs=[]
|
635 |
-
)
|
636 |
-
refine_usage_scenarios_button.click(
|
637 |
-
fn=lambda first_name, last_name, age, value, biases, marketing_objectives: refine_persona_details(first_name, last_name, age, "Scénarios d’utilisation", value, biases, marketing_objectives),
|
638 |
-
inputs=[first_name_input, last_name_input, age_input, usage_scenarios_input, bias_analysis_output, objective_input],
|
639 |
-
outputs=[]
|
640 |
-
)
|
641 |
-
refine_brand_relationship_button.click(
|
642 |
-
fn=lambda first_name, last_name, age, value, biases, marketing_objectives: refine_persona_details(first_name, last_name, age, "Relation avec la marque", value, biases, marketing_objectives),
|
643 |
-
inputs=[first_name_input, last_name_input, age_input, brand_relationship_input, bias_analysis_output, objective_input],
|
644 |
-
outputs=[]
|
645 |
-
)
|
646 |
-
refine_market_segment_button.click(
|
647 |
-
fn=lambda first_name, last_name, age, value, biases, marketing_objectives: refine_persona_details(first_name, last_name, age, "Segment de marché", value, biases, marketing_objectives),
|
648 |
-
inputs=[first_name_input, last_name_input, age_input, market_segment_input, bias_analysis_output, objective_input],
|
649 |
-
outputs=[]
|
650 |
-
)
|
651 |
-
refine_commercial_objectives_button.click(
|
652 |
-
fn=lambda first_name, last_name, age, value, biases, marketing_objectives: refine_persona_details(first_name, last_name, age, "Objectifs commerciaux", value, biases, marketing_objectives),
|
653 |
-
inputs=[first_name_input, last_name_input, age_input, commercial_objectives_input, bias_analysis_output, objective_input],
|
654 |
-
outputs=[]
|
655 |
-
)
|
656 |
-
refine_visual_codes_button.click(
|
657 |
-
fn=lambda first_name, last_name, age, value, biases, marketing_objectives: refine_persona_details(first_name, last_name, age, "Graphiques et codes visuels", value, biases, marketing_objectives),
|
658 |
-
inputs=[first_name_input, last_name_input, age_input, visual_codes_input, bias_analysis_output, objective_input],
|
659 |
-
outputs=[]
|
660 |
-
)
|
661 |
-
refine_special_considerations_button.click(
|
662 |
-
fn=lambda first_name, last_name, age, value, biases, marketing_objectives: refine_persona_details(first_name, last_name, age, "Considérations spéciales", value, biases, marketing_objectives),
|
663 |
-
inputs=[first_name_input, last_name_input, age_input, special_considerations_input, bias_analysis_output, objective_input],
|
664 |
-
outputs=[]
|
665 |
-
)
|
666 |
-
refine_daily_life_button.click(
|
667 |
-
fn=lambda first_name, last_name, age, value, biases, marketing_objectives: refine_persona_details(first_name, last_name, age, "Une journée dans la vie", value, biases, marketing_objectives),
|
668 |
-
inputs=[first_name_input, last_name_input, age_input, daily_life_input, bias_analysis_output, objective_input],
|
669 |
-
outputs=[]
|
670 |
-
)
|
671 |
-
refine_references_button.click(
|
672 |
-
fn=lambda first_name, last_name, age, value, biases, marketing_objectives: refine_persona_details(first_name, last_name, age, "Références", value, biases, marketing_objectives),
|
673 |
-
inputs=[first_name_input, last_name_input, age_input, references_input, bias_analysis_output, objective_input],
|
674 |
-
outputs=[]
|
675 |
-
)
|
676 |
-
with gr.Tab("Étape 4: Résumé du persona"):
|
677 |
-
gr.Markdown("")
|
678 |
-
summary_button = gr.Button("Afficher le résumé")
|
679 |
-
summary_content = gr.Markdown()
|
680 |
-
|
681 |
-
def generate_summary(
|
682 |
-
first_name, last_name, age, gender, persona_description,
|
683 |
-
skin_color, eye_color, hair_style, hair_color, facial_expression,
|
684 |
-
posture, clothing_style, accessories,
|
685 |
-
marital_status, education_level, profession, income,
|
686 |
-
personality_traits, values_beliefs, motivations, hobbies_interests,
|
687 |
-
main_responsibilities, daily_activities, technology_relationship,
|
688 |
-
product_related_activities, pain_points, product_goals, persona_image_output
|
689 |
-
):
|
690 |
-
summary = ""
|
691 |
-
|
692 |
-
if not first_name or not last_name or not age:
|
693 |
-
summary += "**Veuillez fournir les informations de base du persona (prénom, nom, âge).**\n\n"
|
694 |
-
return summary
|
695 |
-
|
696 |
-
image = None
|
697 |
-
if persona_image_output and os.path.exists(persona_image_output):
|
698 |
-
try:
|
699 |
-
with open(persona_image_output, "rb") as img_file:
|
700 |
-
img_bytes = img_file.read()
|
701 |
-
img_base64 = base64.b64encode(img_bytes).decode()
|
702 |
-
img_data_url = f"data:image/png;base64,{img_base64}"
|
703 |
-
image = img_data_url
|
704 |
-
except Exception as e:
|
705 |
-
summary += f"**Erreur lors du chargement de l'image:** {str(e)}\n\n"
|
706 |
-
|
707 |
-
# Section Informations Personnelles
|
708 |
-
personal_info = ""
|
709 |
-
if first_name or last_name or age or gender or persona_description:
|
710 |
-
personal_info += "<div style='text-align: center;'>\n"
|
711 |
-
if first_name or last_name or age:
|
712 |
-
personal_info += f"<h1>{first_name} {last_name}, {age} ans</h1>\n"
|
713 |
-
if persona_description:
|
714 |
-
personal_info += f"**Description**: {persona_description}\n\n"
|
715 |
-
personal_info += "</div>\n"
|
716 |
-
|
717 |
-
# Section Informations Sociales
|
718 |
-
social_info = ""
|
719 |
-
if marital_status or education_level or profession or income:
|
720 |
-
if marital_status:
|
721 |
-
social_info += f"**État civil**: {marital_status}\n\n"
|
722 |
-
if education_level:
|
723 |
-
social_info += f"**Niveau d'éducation**: {education_level}\n\n"
|
724 |
-
if profession:
|
725 |
-
social_info += f"**Profession**: {profession}\n\n"
|
726 |
-
if income:
|
727 |
-
social_info += f"**Revenus annuels (€)**: {income}\n\n"
|
728 |
-
|
729 |
-
# Section Traits de Personnalité
|
730 |
-
personality_info = ""
|
731 |
-
if personality_traits or values_beliefs or motivations or hobbies_interests:
|
732 |
-
if personality_traits:
|
733 |
-
personality_info += f"**Traits de personnalité**: {personality_traits}\n\n"
|
734 |
-
if values_beliefs:
|
735 |
-
personality_info += f"**Valeurs et croyances**: {values_beliefs}\n\n"
|
736 |
-
if motivations:
|
737 |
-
personality_info += f"**Motivations intrinsèques**: {motivations}\n\n"
|
738 |
-
if hobbies_interests:
|
739 |
-
personality_info += f"**Hobbies et intérêts**: {hobbies_interests}\n\n"
|
740 |
-
|
741 |
-
# Section Responsabilités et Activités
|
742 |
-
responsibilities_info = ""
|
743 |
-
if main_responsibilities or daily_activities or technology_relationship or product_related_activities:
|
744 |
-
if main_responsibilities:
|
745 |
-
responsibilities_info += f"**Responsabilités principales**: {main_responsibilities}\n\n"
|
746 |
-
if daily_activities:
|
747 |
-
responsibilities_info += f"**Activités journalières**: {daily_activities}\n\n"
|
748 |
-
if technology_relationship:
|
749 |
-
responsibilities_info += f"**Relation avec la technologie**: {technology_relationship}\n\n"
|
750 |
-
if product_related_activities:
|
751 |
-
responsibilities_info += f"**Tâches liées au produit**: {product_related_activities}\n\n"
|
752 |
-
|
753 |
-
# Section Points de Douleur et Objectifs
|
754 |
-
pain_goals_info = ""
|
755 |
-
if pain_points or product_goals:
|
756 |
-
if pain_points:
|
757 |
-
pain_goals_info += f"**Points de douleur**: {pain_points}\n\n"
|
758 |
-
if product_goals:
|
759 |
-
pain_goals_info += f"**Objectifs d’utilisation du produit**: {product_goals}\n\n"
|
760 |
-
|
761 |
-
# Assembler le résumé complet avec image à droite
|
762 |
-
summary += "<div style='display: flex; flex-wrap: nowrap; align-items: flex-start;'>\n"
|
763 |
-
|
764 |
-
# Colonne pour le texte
|
765 |
-
summary += "<div style='flex: 1; margin-right: 20px;'>\n"
|
766 |
-
if personal_info:
|
767 |
-
summary += f"{personal_info}\n"
|
768 |
-
if social_info:
|
769 |
-
summary += "<h3>Informations sociales</h3>\n\n" + social_info
|
770 |
-
if personality_info:
|
771 |
-
summary += "<h3>Traits de personnalité</h3>\n\n" + personality_info
|
772 |
-
if responsibilities_info:
|
773 |
-
summary += "<h3>Responsabilités et Activités</h3>\n\n" + responsibilities_info
|
774 |
-
if pain_goals_info:
|
775 |
-
summary += "<h3>Points de Douleur et Objectifs</h3>\n\n" + pain_goals_info
|
776 |
-
summary += "</div>\n"
|
777 |
-
|
778 |
-
# Colonne pour l'image alignée à droite
|
779 |
-
if image:
|
780 |
-
summary += f"<div style='flex: 0;'>\n<img src='{image}' alt='Persona Image' style='max-width: 300px; height: auto;'/>\n</div>\n"
|
781 |
-
else:
|
782 |
-
summary += "<div style='flex: 0;'>\n<p>Image non disponible.</p>\n</div>\n"
|
783 |
-
|
784 |
-
summary += "</div>\n"
|
785 |
-
|
786 |
-
return summary
|
787 |
-
|
788 |
-
summary_button.click(
|
789 |
-
fn=generate_summary,
|
790 |
-
inputs=[
|
791 |
first_name_input, last_name_input, age_input, gender_input, persona_description_input,
|
792 |
skin_color_input, eye_color_input, hair_style_input, hair_color_input,
|
793 |
-
facial_expression_input, posture_input,
|
794 |
-
clothing_style_input, accessories_input,
|
795 |
marital_status_input, education_level_input, profession_input, income_input,
|
796 |
personality_traits_input, values_beliefs_input, motivations_input, hobbies_interests_input,
|
797 |
main_responsibilities_input, daily_activities_input, technology_relationship_input,
|
798 |
-
product_related_activities_input, pain_points_input, product_goals_input,
|
799 |
-
|
800 |
-
|
801 |
-
|
802 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
import gradio as gr
|
|
|
|
|
2 |
from openai import OpenAI
|
3 |
+
from pydantic import BaseModel, Field
|
4 |
import os
|
5 |
import requests
|
6 |
from PIL import Image
|
7 |
import tempfile
|
8 |
import numpy as np
|
|
|
9 |
import markdown
|
10 |
import base64
|
11 |
+
import datetime
|
12 |
+
import json
|
13 |
+
from dotenv import load_dotenv
|
14 |
|
15 |
+
# --- Configuration ---
|
16 |
+
load_dotenv() # Charge les variables depuis un fichier .env s'il existe
|
17 |
|
18 |
+
api_key = os.getenv("OPENROUTER_API_KEY")
|
19 |
+
|
20 |
+
if not api_key:
|
21 |
+
print("ERREUR: Clé API OpenRouter non trouvée. Définissez OPENROUTER_API_KEY dans l'environnement ou le fichier .env.")
|
22 |
+
# Mettre ici une gestion d'erreur plus propre si besoin
|
23 |
+
|
24 |
+
# Initialisation du client OpenAI pour pointer vers OpenRouter
|
25 |
+
client = OpenAI(
|
26 |
+
base_url="https://openrouter.ai/api/v1",
|
27 |
+
api_key=api_key,
|
28 |
+
)
|
|
|
|
|
|
|
29 |
|
30 |
+
# --- Modèles Pydantic pour la structuration ---
|
31 |
+
|
32 |
+
class BiasInfo(BaseModel):
|
33 |
+
bias_type: str = Field(..., description="Type de biais identifié (ex: Stéréotype de genre, Biais de confirmation)")
|
34 |
+
explanation: str = Field(..., description="Explication de pourquoi cela pourrait être un biais dans ce contexte.")
|
35 |
+
advice: str = Field(..., description="Conseil spécifique pour atténuer ce biais.")
|
36 |
+
|
37 |
+
class BiasAnalysisResponse(BaseModel):
|
38 |
+
detected_biases: list[BiasInfo] = Field(default_factory=list, description="Liste des biais potentiels détectés.")
|
39 |
+
overall_comment: str = Field(default="", description="Commentaire général ou indication si aucun biais majeur n'est détecté.")
|
40 |
+
|
41 |
+
|
42 |
+
# --- Fonctions Utilitaires ---
|
43 |
+
|
44 |
+
# Dictionnaires de correspondance (conservés de V1)
|
45 |
+
posture_mapping = {"": "","Debout": "standing up","Assis": "sitting","Allongé": "lying down","Accroupi": "crouching","En mouvement": "moving","Reposé": "resting"}
|
46 |
+
facial_expression_mapping = {"": "","Souriant": "smiling","Sérieux": "serious","Triste": "sad","En colère": "angry","Surpris": "surprised","Pensif": "thoughtful"}
|
47 |
+
skin_color_mapping = {"": "","Clair": "light","Moyen": "medium","Foncé": "dark","Très foncé": "very dark"}
|
48 |
+
eye_color_mapping = {"": "","Bleu": "blue","Vert": "green","Marron": "brown","Gris": "gray"}
|
49 |
+
hair_style_mapping = {"": "","Court": "short","Long": "long","Bouclé": "curly","Rasé": "shaved","Chauve": "bald","Tresses": "braided","Queue de cheval": "ponytail","Coiffure afro": "afro","Dégradé": "fade"}
|
50 |
+
hair_color_mapping = {"": "","Blond": "blonde","Brun": "brown","Noir": "black","Roux": "red","Gris": "gray","Blanc": "white"}
|
51 |
+
clothing_style_mapping = {"": "","Décontracté": "casual","Professionnel": "professional","Sportif": "sporty"}
|
52 |
+
accessories_mapping = {"": "","Lunettes": "glasses","Montre": "watch","Chapeau": "hat"}
|
53 |
+
|
54 |
+
# Fonction de mise à jour du journal
|
55 |
+
def update_log(event_description, session_log_state):
|
56 |
+
timestamp = datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")
|
57 |
+
new_log_entry = f"[{timestamp}] {event_description}"
|
58 |
+
current_log = session_log_state.value if session_log_state.value else ""
|
59 |
+
# Limiter la taille du log si nécessaire pour éviter des problèmes de performance
|
60 |
+
log_lines = current_log.splitlines()
|
61 |
+
if len(log_lines) > 100: # Garde les 100 dernières lignes par exemple
|
62 |
+
current_log = "\n".join(log_lines[-100:])
|
63 |
+
updated_log = current_log + new_log_entry + "\n"
|
64 |
+
session_log_state.value = updated_log
|
65 |
+
return updated_log
|
66 |
+
|
67 |
+
# --- Fonctions Principales de l'Application ---
|
68 |
+
|
69 |
+
def analyze_biases_v2(objective_text, session_log_state):
|
70 |
+
"""Analyse les biais dans l'objectif marketing (V2 avec prompt ciblé)."""
|
71 |
+
log_event_start = f"Analyse Biais Objectif (début): '{objective_text[:50]}...'"
|
72 |
+
update_log(log_event_start, session_log_state)
|
73 |
+
|
74 |
+
# Prompt système V2 (catégories + exemples)
|
75 |
+
system_prompt = f"""
|
76 |
+
Tu es un expert en marketing éthique et en psychologie cognitive, spécialisé dans la création de personas.
|
77 |
+
Analyse l'objectif marketing suivant : "{objective_text}"
|
78 |
+
|
79 |
+
Identifie les BIAIS COGNITIFS POTENTIELS ou RISQUES DE STÉRÉOTYPES pertinents pour la création de personas. Concentre-toi sur :
|
80 |
+
1. **Stéréotypes / Généralisations Hâtives :** Suppose-t-on des traits basés sur le genre, l'âge, l'ethnie, le statut socio-économique sans justification ? (Ex: 'tous les jeunes urbains sont écolos')
|
81 |
+
2. **Biais de Confirmation / Affinité :** L'objectif semble-t-il chercher à valider une idée préconçue ou refléter trop les opinions du concepteur ? (Ex: 'prouver que notre produit est parfait pour CE type de personne')
|
82 |
+
3. **Simplification Excessive / Manque de Nuance :** Le groupe cible est-il décrit de manière trop monolithique, ignorant la diversité interne ? (Ex: 'les seniors actifs' sans différencier leurs motivations ou capacités)
|
83 |
+
4. **Autres biais pertinents** (Ex: Oubli de fréquence de base, Biais de normalité si applicable).
|
84 |
+
|
85 |
+
Pour chaque biais potentiel identifié :
|
86 |
+
- Nomme le type de biais (ex: Stéréotype d'âge).
|
87 |
+
- Explique brièvement POURQUOI c'est un risque DANS CE CONTEXTE de création de persona.
|
88 |
+
- Propose un CONSEIL PRÉCIS pour nuancer l'objectif ou être vigilant lors de la création.
|
89 |
+
|
90 |
+
Structure ta réponse en utilisant le format JSON suivant (avec la classe Pydantic BiasAnalysisResponse):
|
91 |
+
{{
|
92 |
+
"detected_biases": [
|
93 |
+
{{
|
94 |
+
"bias_type": "Type de biais identifié",
|
95 |
+
"explanation": "Explication contextuelle du risque.",
|
96 |
+
"advice": "Conseil spécifique d'atténuation."
|
97 |
+
}}
|
98 |
+
],
|
99 |
+
"overall_comment": "Bref commentaire général. Indique si aucun biais majeur n'est détecté."
|
100 |
+
}}
|
101 |
+
Réponds en français. S'il n'y a pas de biais clair, retourne une liste 'detected_biases' vide et indique-le dans 'overall_comment'.
|
102 |
+
"""
|
103 |
try:
|
104 |
+
completion = client.chat.completions.create(
|
105 |
+
model=MODEL_NAME,
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
106 |
messages=[
|
107 |
+
{"role": "user", "content": system_prompt} # Intégration de l'objectif dans le prompt système peut être plus robuste pour certains modèles
|
|
|
108 |
],
|
109 |
+
temperature=0.4,
|
110 |
max_tokens=800,
|
111 |
+
response_format={"type": "json_object"}, # Demander explicitement du JSON si le modèle le supporte bien
|
112 |
)
|
|
|
|
|
|
|
|
|
113 |
|
114 |
+
response_content_str = completion.choices[0].message.content
|
115 |
+
# Essayer de parser la réponse JSON
|
116 |
+
parsed_response = BiasAnalysisResponse.parse_raw(response_content_str)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
117 |
|
118 |
+
log_event_end = f"Analyse Biais Objectif (fin): Biais trouvés - {len(parsed_response.detected_biases)}"
|
119 |
+
update_log(log_event_end, session_log_state)
|
120 |
+
return parsed_response.dict(), update_log("", session_log_state) # Retourne dict et log mis à jour
|
121 |
|
122 |
+
except Exception as e:
|
123 |
+
error_msg = f"Erreur pendant l'analyse des biais: {str(e)}. Réponse brute: {response_content_str if 'response_content_str' in locals() else 'N/A'}"
|
124 |
+
print(error_msg)
|
125 |
+
update_log(f"ERREUR Analyse Biais: {str(e)}", session_log_state)
|
126 |
+
# Retourner une structure d'erreur compatible
|
127 |
+
error_response = BiasAnalysisResponse(overall_comment=f"Erreur technique lors de l'analyse: {str(e)}").dict()
|
128 |
+
return error_response, update_log("", session_log_state)
|
129 |
+
|
130 |
+
def display_bias_analysis_v2(analysis_result):
|
131 |
+
"""Formate l'analyse des biais pour l'affichage avec HighlightedText."""
|
132 |
+
if not analysis_result or "error" in analysis_result:
|
133 |
+
return [("Erreur ou pas de résultat.", None)], analysis_result # Retourne un format compatible HighlightedText
|
134 |
+
|
135 |
+
biases = analysis_result.get("detected_biases", [])
|
136 |
+
overall_comment = analysis_result.get("overall_comment", "")
|
137 |
+
|
138 |
+
highlighted_data = []
|
139 |
+
if not biases:
|
140 |
+
highlighted_data.append((overall_comment or "Aucun biais majeur détecté.", "INFO"))
|
141 |
+
else:
|
142 |
+
if overall_comment:
|
143 |
+
highlighted_data.append((overall_comment + "\n", "COMMENT"))
|
144 |
+
for bias_info in biases:
|
145 |
+
highlighted_data.append((f"⚠️ {bias_info['bias_type']}: ", "BIAS_TYPE"))
|
146 |
+
highlighted_data.append((f"{bias_info['explanation']} ", "EXPLANATION"))
|
147 |
+
highlighted_data.append((f"💡 Conseil: {bias_info['advice']}\n", "ADVICE"))
|
148 |
+
|
149 |
+
# Retourne les données formatées pour HighlightedText et le résultat brut pour usage ultérieur
|
150 |
+
return highlighted_data, analysis_result
|
151 |
+
|
152 |
+
|
153 |
+
def generate_persona_image_v2(*args):
|
154 |
+
"""Génère l'image du persona (V2 avec logging)."""
|
155 |
+
# Les 13 premiers args sont les inputs de l'image, le dernier est session_log_state
|
156 |
+
inputs = args[:-1]
|
157 |
+
session_log_state = args[-1]
|
158 |
+
(first_name, last_name, age, gender, persona_description,
|
159 |
+
skin_color, eye_color, hair_style, hair_color, facial_expression,
|
160 |
+
posture, clothing_style, accessories) = inputs
|
161 |
|
162 |
+
if not first_name or not last_name or not age or not gender:
|
163 |
+
gr.Info("Veuillez remplir tous les champs pour générer l'image du persona.")
|
164 |
+
return None, update_log("Génération Image: Champs manquants.", session_log_state)
|
165 |
+
|
166 |
+
prompt = f"one person only. {first_name} {last_name}, {gender}, {age} years old. Realistic photo style."
|
167 |
+
|
168 |
+
# Mapping et ajout des détails
|
169 |
+
details = ""
|
170 |
+
if skin_color: details += f" Skin tone: {skin_color_mapping.get(skin_color, skin_color)}."
|
171 |
+
if eye_color: details += f" Eye color: {eye_color_mapping.get(eye_color, eye_color)}."
|
172 |
+
if hair_style: details += f" Hairstyle: {hair_style_mapping.get(hair_style, hair_style)}."
|
173 |
+
if hair_color: details += f" Hair color: {hair_color_mapping.get(hair_color, hair_color)}."
|
174 |
+
if facial_expression: details += f" Facial expression: {facial_expression_mapping.get(facial_expression, facial_expression)}."
|
175 |
+
if posture: details += f" Posture: {posture_mapping.get(posture, posture)}."
|
176 |
+
if clothing_style: details += f" Clothing style: {clothing_style_mapping.get(clothing_style, clothing_style)}."
|
177 |
+
if accessories: details += f" Accessories: {accessories_mapping.get(accessories, accessories)}."
|
178 |
+
if persona_description: details += f" Background context or activity: {persona_description}."
|
179 |
+
|
180 |
+
final_prompt = prompt + details
|
181 |
+
log_event_start = f"Génération Image (début): Prompt='{final_prompt[:100]}...'"
|
182 |
+
update_log(log_event_start, session_log_state)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
183 |
|
184 |
+
try:
|
185 |
+
response = client.images.generate(
|
186 |
+
model="dall-e-3", # OpenRouter pourrait ne pas supporter DALL-E 3 directement, vérifier la compatibilité ou utiliser un modèle image dispo via OpenRouter
|
187 |
+
# Alternative possible via OpenRouter : "stabilityai/stable-diffusion-xl-1024-v1-0" (nécessite ajustement)
|
188 |
+
# Pour l'instant on laisse DALL-E 3 en supposant une clé OpenAI valide aussi, ou l'utilisateur devra adapter
|
189 |
+
prompt=final_prompt,
|
190 |
+
size="1024x1024",
|
191 |
+
n=1,
|
192 |
)
|
193 |
+
image_url = response.data[0].url
|
194 |
+
response_image = requests.get(image_url)
|
195 |
+
response_image.raise_for_status() # Vérifie les erreurs HTTP
|
196 |
+
|
197 |
+
# Utiliser BytesIO pour éviter fichier temporaire si possible avec Gradio Image
|
198 |
+
# img_bytes = response_image.content
|
199 |
+
# pil_image = Image.open(BytesIO(img_bytes))
|
200 |
+
# return pil_image, update_log("Génération Image (fin): Succès.", session_log_state)
|
201 |
+
|
202 |
+
# Méthode avec fichier temporaire (comme V1) si BytesIO pose problème
|
203 |
+
temp_image = tempfile.NamedTemporaryFile(delete=False, suffix='.png')
|
204 |
+
with open(temp_image.name, 'wb') as f:
|
205 |
+
f.write(response_image.content)
|
206 |
+
image_path = temp_image.name
|
207 |
+
update_log(f"Génération Image (fin): Succès. Image @ {image_path}", session_log_state)
|
208 |
+
return image_path, update_log("", session_log_state) # Retourne chemin et log
|
209 |
|
210 |
+
except Exception as e:
|
211 |
+
error_msg = f"Erreur lors de la génération de l'image: {str(e)}"
|
212 |
+
print(error_msg)
|
213 |
+
update_log(f"ERREUR Génération Image: {str(e)}", session_log_state)
|
214 |
+
gr.Error(error_msg)
|
215 |
+
return None, update_log("", session_log_state)
|
216 |
+
|
217 |
+
def refine_persona_details_v2(first_name, last_name, age, field_name, field_value, bias_analysis_json_str, marketing_objectives, session_log_state):
|
218 |
+
"""Affine les détails du persona (V2 avec lien aux biais et logging)."""
|
219 |
+
|
220 |
+
log_event_start = f"Refinement (début): Champ='{field_name}', Valeur initiale='{field_value[:50]}...'"
|
221 |
+
update_log(log_event_start, session_log_state)
|
222 |
+
|
223 |
+
# Essayer de récupérer les biais détectés précédemment
|
224 |
+
biases_text = "Aucune analyse de biais précédente disponible."
|
225 |
+
if bias_analysis_json_str:
|
226 |
+
try:
|
227 |
+
bias_analysis_data = json.loads(bias_analysis_json_str) # Charger depuis l'état caché
|
228 |
+
detected_biases = bias_analysis_data.get("detected_biases", [])
|
229 |
+
if detected_biases:
|
230 |
+
biases_text = "\n".join([f"- {b['bias_type']}: {b['explanation']}" for b in detected_biases])
|
231 |
+
else:
|
232 |
+
biases_text = "Aucun biais majeur détecté lors de l'analyse initiale."
|
233 |
+
except Exception as e:
|
234 |
+
biases_text = f"Erreur lors de la récupération des biais analysés: {e}"
|
235 |
|
236 |
+
system_prompt = f"""
|
237 |
+
Tu es un assistant IA expert en marketing éthique, aidant à affiner le persona marketing pour '{first_name} {last_name}' ({age} ans).
|
238 |
+
L'objectif marketing initial était : "{marketing_objectives}"
|
239 |
+
L'analyse initiale de cet objectif a soulevé les biais potentiels suivants :
|
240 |
+
{biases_text}
|
241 |
+
|
242 |
+
Tâche: Concentre-toi UNIQUEMENT sur le champ '{field_name}' dont la valeur actuelle est '{field_value}'.
|
243 |
+
Propose 1 à 2 suggestions CONCISES pour améliorer ou nuancer cette valeur.
|
244 |
+
Tes suggestions doivent viser à rendre le persona plus réaliste, moins stéréotypé, et/ou à ATTÉNUER les biais potentiels listés ci-dessus, tout en restant cohérent avec l'objectif marketing général.
|
245 |
+
Si la valeur actuelle semble bonne ou si tu manques de contexte, indique-le simplement.
|
246 |
+
Réponds en français. Ne fournis que les suggestions.
|
247 |
+
"""
|
248 |
+
try:
|
249 |
+
response = client.chat.completions.create(
|
250 |
+
model=MODEL_NAME,
|
251 |
+
messages=[{"role": "user", "content": system_prompt}],
|
252 |
+
temperature=0.5, # Un peu plus de créativité pour les suggestions
|
253 |
+
max_tokens=150,
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
254 |
)
|
255 |
+
suggestions = response.choices[0].message.content.strip()
|
256 |
|
257 |
+
log_event_end = f"Refinement (fin): Champ='{field_name}'. Suggestions: '{suggestions[:50]}...'"
|
258 |
+
update_log(log_event_end, session_log_state)
|
259 |
|
260 |
+
# Affiche les suggestions dans une InfoBox
|
261 |
+
gr.Info(f"Suggestions pour '{field_name}':\n{suggestions}")
|
262 |
+
return update_log("", session_log_state) # Retourne juste le log mis à jour pour l'output invisible
|
263 |
|
264 |
+
except Exception as e:
|
265 |
+
error_msg = f"Erreur lors du raffinement pour '{field_name}': {str(e)}"
|
266 |
+
print(error_msg)
|
267 |
+
update_log(f"ERREUR Refinement '{field_name}': {str(e)}", session_log_state)
|
268 |
+
gr.Error(error_msg)
|
269 |
+
return update_log("", session_log_state)
|
270 |
+
|
271 |
+
def generate_summary_v2(*args):
|
272 |
+
"""Génère le résumé du persona (V2 avec logging et meilleure gestion image)."""
|
273 |
+
# Les 28 premiers args sont les inputs persona, le 29ème est persona_image_path, le 30ème est session_log_state
|
274 |
+
inputs = args[:-1]
|
275 |
+
session_log_state = args[-1]
|
276 |
+
(first_name, last_name, age, gender, persona_description,
|
277 |
+
skin_color, eye_color, hair_style, hair_color, facial_expression,
|
278 |
+
posture, clothing_style, accessories,
|
279 |
+
marital_status, education_level, profession, income,
|
280 |
+
personality_traits, values_beliefs, motivations, hobbies_interests,
|
281 |
+
main_responsibilities, daily_activities, technology_relationship,
|
282 |
+
product_related_activities, pain_points, product_goals, usage_scenarios, # Ajout usage_scenarios
|
283 |
+
brand_relationship, market_segment, commercial_objectives, # Ajout autres champs V1
|
284 |
+
visual_codes, special_considerations, daily_life, references, # Ajout autres champs V1
|
285 |
+
persona_image_path # Récupère le chemin de l'image
|
286 |
+
) = inputs
|
287 |
+
|
288 |
+
log_event = f"Génération Résumé: Pour '{first_name} {last_name}'."
|
289 |
+
update_log(log_event, session_log_state)
|
290 |
+
|
291 |
+
summary = ""
|
292 |
+
image_html = "<div style='flex: 0 0 320px; margin-left: 20px; text-align: center;'>\n" # Div pour l'image
|
293 |
+
|
294 |
+
if not first_name or not last_name or not age:
|
295 |
+
summary += "**Veuillez fournir au moins le prénom, le nom et l'âge (Étape 2).**\n"
|
296 |
+
image_html += "<p>Image non générée.</p>\n"
|
297 |
+
else:
|
298 |
+
# Essayer de charger et encoder l'image depuis le chemin stocké
|
299 |
+
if persona_image_path and os.path.exists(persona_image_path):
|
300 |
+
try:
|
301 |
+
with open(persona_image_path, "rb") as img_file:
|
302 |
+
img_bytes = img_file.read()
|
303 |
+
img_base64 = base64.b64encode(img_bytes).decode()
|
304 |
+
img_data_url = f"data:image/png;base64,{img_base64}"
|
305 |
+
image_html += f"<img src='{img_data_url}' alt='Persona {first_name}' style='max-width: 300px; height: auto; border: 1px solid #eee; border-radius: 5px;'/>\n"
|
306 |
+
except Exception as e:
|
307 |
+
image_html += f"<p>Erreur chargement image: {e}</p>\n"
|
308 |
+
update_log(f"ERREUR Chargement Image Résumé: {e}", session_log_state)
|
309 |
+
else:
|
310 |
+
image_html += "<p>Aucune image générée.</p>\n"
|
311 |
+
|
312 |
+
# Section Informations Personnelles (Titre centré)
|
313 |
+
summary += f"<div style='text-align: center;'><h1>{first_name} {last_name}, {age} ans ({gender})</h1></div>\n"
|
314 |
+
if persona_description: summary += f"<p><i>{persona_description}</i></p>\n"
|
315 |
+
|
316 |
+
# Assemblage des autres sections (avec vérification si champ rempli)
|
317 |
+
def add_section(title, fields):
|
318 |
+
content = ""
|
319 |
+
for label, value in fields.items():
|
320 |
+
if value: # N'ajoute que si la valeur existe
|
321 |
+
# Formatage spécial pour les revenus
|
322 |
+
if label == "Revenus annuels (€)" and isinstance(value, (int, float)):
|
323 |
+
value_str = f"{value:,.0f} €".replace(",", " ") # Format numérique
|
324 |
+
else:
|
325 |
+
value_str = str(value)
|
326 |
+
content += f"**{label}**: {value_str}<br>\n"
|
327 |
+
if content:
|
328 |
+
return f"<h3>{title}</h3>\n{content}<br>\n"
|
329 |
+
return ""
|
330 |
+
|
331 |
+
summary += add_section("Infos Socio-Démographiques", {
|
332 |
+
"État civil": marital_status, "Niveau d'éducation": education_level,
|
333 |
+
"Profession": profession, "Revenus annuels (€)": income
|
334 |
+
})
|
335 |
+
summary += add_section("Psychographie", {
|
336 |
+
"Traits de personnalité": personality_traits, "Valeurs et croyances": values_beliefs,
|
337 |
+
"Motivations intrinsèques": motivations, "Hobbies et intérêts": hobbies_interests
|
338 |
+
})
|
339 |
+
summary += add_section("Relation au Produit/Service", {
|
340 |
+
"Relation avec la technologie": technology_relationship,
|
341 |
+
"Tâches liées au produit": product_related_activities,
|
342 |
+
"Points de douleur (Pain points)": pain_points,
|
343 |
+
"Objectifs d’utilisation du produit": product_goals,
|
344 |
+
"Scénarios d’utilisation": usage_scenarios
|
345 |
+
})
|
346 |
+
summary += add_section("Contexte Professionnel/Vie Quotidienne", {
|
347 |
+
"Responsabilités principales": main_responsibilities,
|
348 |
+
"Activités journalières": daily_activities,
|
349 |
+
"Une journée dans la vie": daily_life
|
350 |
+
})
|
351 |
+
summary += add_section("Marketing & Considérations Spéciales", {
|
352 |
+
"Relation avec la marque": brand_relationship,
|
353 |
+
"Segment de marché": market_segment,
|
354 |
+
"Objectifs commerciaux (SMART)": commercial_objectives,
|
355 |
+
"Graphiques et codes visuels": visual_codes,
|
356 |
+
"Considérations spéciales (accessibilité)": special_considerations,
|
357 |
+
"Références (sources de données)": references
|
358 |
+
})
|
359 |
+
|
360 |
+
image_html += "</div>\n" # Ferme div image
|
361 |
+
|
362 |
+
# Assemblage final avec flexbox
|
363 |
+
final_html = "<div style='display: flex; flex-wrap: wrap; align-items: flex-start;'>\n"
|
364 |
+
final_html += f"<div style='flex: 1; min-width: 300px;'>\n{summary}</div>\n" # Colonne texte
|
365 |
+
final_html += image_html # Colonne image
|
366 |
+
final_html += "</div>"
|
367 |
+
|
368 |
+
return final_html, update_log("", session_log_state) # Retourne HTML et log
|
369 |
+
|
370 |
+
# --- Interface Gradio V2 ---
|
371 |
+
|
372 |
+
with gr.Blocks(theme=gr.themes.Soft(primary_hue="teal", secondary_hue="orange")) as demo:
|
373 |
+
gr.Markdown("# PersonaGenAI V2 : Assistant de Création de Persona")
|
374 |
+
gr.Markdown("Outil d'aide à la création de personas marketing, intégrant l'IA générative pour stimuler la créativité et la réflexivité face aux biais cognitifs et algorithmiques.")
|
375 |
+
|
376 |
+
# --- État Global ---
|
377 |
+
# Pour stocker le résultat de l'analyse de biais pour l'utiliser dans l'étape 3
|
378 |
+
# Utiliser du JSON comme chaîne de caractères pour passer des données structurées
|
379 |
+
bias_analysis_result_state = gr.State(value=None)
|
380 |
+
# Pour stocker le chemin de l'image générée
|
381 |
+
persona_image_path_state = gr.State(value=None)
|
382 |
+
# Pour stocker le log de session
|
383 |
+
session_log_state = gr.State(value="")
|
384 |
+
|
385 |
+
with gr.Tabs() as tabs:
|
386 |
+
|
387 |
+
# --- Onglet 0 : Configuration API (Optionnel mais bonne pratique) ---
|
388 |
+
with gr.Tab("🔑 Configuration API", id=-1):
|
389 |
+
gr.Markdown("### Configuration OpenRouter API")
|
390 |
+
gr.Markdown(f"Utilise le modèle : `{MODEL_NAME}` via OpenRouter. Utiliser : google/gemini-2.5-pro-exp-03-25:free")
|
391 |
+
# Possibilité d'ajouter un input pour changer la clé si besoin, mais pas essentiel pour la démo AIMS
|
392 |
+
gr.HTML(f"<small>Clé utilisée (tronquée): {api_key[:10]}...{api_key[-4:] if len(api_key)>14 else ''}</small>")
|
393 |
+
|
394 |
+
|
395 |
+
# --- Onglet 1 : Objectif & Analyse Biais ---
|
396 |
+
with gr.Tab("🎯 Étape 1: Objectif & Analyse Biais", id=0):
|
397 |
+
gr.Markdown("### 1. Définissez votre objectif marketing")
|
398 |
+
gr.Markdown("Décrivez pourquoi vous créez ce persona. L'IA analysera votre objectif pour identifier des biais cognitifs potentiels.")
|
399 |
+
with gr.Row():
|
400 |
+
objective_input = gr.Textbox(label="Objectif marketing pour ce persona", lines=4, scale=3)
|
401 |
+
with gr.Column(scale=1):
|
402 |
+
# Exemples pour guider l'utilisateur
|
403 |
+
gr.Markdown("<small>Suggestions d'objectifs :</small>")
|
404 |
+
suggestion_button1 = gr.Button("Exemple 1 : Service Écologique Urbain", size="sm")
|
405 |
+
suggestion_button2 = gr.Button("Exemple 2 : App Fitness Seniors", size="sm")
|
406 |
+
analyze_button = gr.Button("🔍 Analyser l'Objectif pour Biais")
|
407 |
+
gr.Markdown("---")
|
408 |
+
gr.Markdown("### Analyse des Biais Potentiels")
|
409 |
+
bias_analysis_output_highlighted = gr.HighlightedText(
|
410 |
+
label="Biais détectés et Conseils",
|
411 |
+
show_legend=True,
|
412 |
+
color_map={"BIAS_TYPE": "red", "EXPLANATION": "gray", "ADVICE": "green", "INFO": "blue", "COMMENT": "orange"}
|
413 |
+
)
|
414 |
+
gr.Markdown("---")
|
415 |
+
gr.Markdown("### 🤔 Réflexion")
|
416 |
+
user_reflection_on_biases = gr.Textbox(
|
417 |
+
label="Comment comptez-vous utiliser cette analyse pour la suite ?",
|
418 |
+
lines=2,
|
419 |
+
placeholder="Ex: Je vais veiller à ne pas tomber dans le stéréotype X, je vais chercher des données pour nuancer Y..."
|
420 |
+
)
|
421 |
+
log_reflection_button = gr.Button("📝 Enregistrer la réflexion", size='sm')
|
422 |
+
|
423 |
+
# Logique de l'onglet 1
|
424 |
+
suggestion1_text = "Je souhaite créer un persona pour promouvoir un nouveau service de livraison écologique destiné aux jeunes professionnels urbains soucieux de l'environnement (25-35 ans). Il doit incarner ces valeurs et besoins identifiés lors de notre étude préalable."
|
425 |
+
suggestion2_text = "Développer une application mobile de fitness personnalisée pour les seniors actifs (+65 ans) cherchant à maintenir une vie saine et sociale. Le persona doit refléter leurs besoins (facilité, convivialité) et préférences."
|
426 |
+
|
427 |
+
suggestion_button1.click(lambda: suggestion1_text, outputs=objective_input)
|
428 |
+
suggestion_button2.click(lambda: suggestion2_text, outputs=objective_input)
|
429 |
+
|
430 |
+
analyze_button.click(
|
431 |
+
fn=analyze_biases_v2,
|
432 |
+
inputs=[objective_input, session_log_state],
|
433 |
+
outputs=[bias_analysis_result_state, session_log_state] # Stocke le résultat JSON brut dans l'état
|
434 |
+
).then(
|
435 |
+
fn=display_bias_analysis_v2,
|
436 |
+
inputs=bias_analysis_result_state, # Utilise le résultat stocké
|
437 |
+
outputs=[bias_analysis_output_highlighted, bias_analysis_result_state] # Affiche formaté + remet dans l'état (pour màj)
|
438 |
+
).then(
|
439 |
+
fn=lambda log: update_log("", log), # Force la MAJ du log display via l'état
|
440 |
+
inputs=session_log_state,
|
441 |
+
outputs=session_log_state # Ne change rien mais déclenche l'update du textbox log
|
442 |
+
)
|
443 |
+
|
444 |
+
def log_user_reflection(reflection_text, log_state):
|
445 |
+
update_log(f"Réflexion Utilisateur (Étape 1): '{reflection_text}'", log_state)
|
446 |
+
return update_log("", log_state)
|
447 |
+
|
448 |
+
log_reflection_button.click(
|
449 |
+
fn=log_user_reflection,
|
450 |
+
inputs=[user_reflection_on_biases, session_log_state],
|
451 |
+
outputs=[session_log_state]
|
452 |
+
)
|
453 |
+
|
454 |
+
# --- Onglet 2 : Image & Infos Base ---
|
455 |
+
with gr.Tab("👤 Étape 2: Image & Infos Base", id=1):
|
456 |
+
gr.Markdown("### 2. Créez l'identité visuelle et les informations de base")
|
457 |
+
with gr.Row():
|
458 |
+
with gr.Column(scale=1.4): # Colonne de gauche pour les inputs
|
459 |
+
first_name_input = gr.Textbox(label="Prénom")
|
460 |
+
last_name_input = gr.Textbox(label="Nom")
|
461 |
+
age_input = gr.Slider(label="Âge", minimum=18, maximum=100, step=1, value=30)
|
462 |
+
gender_input = gr.Radio(label="Genre", choices=["Homme", "Femme", "Non-binaire"], value="Homme") # Ajout Non-binaire
|
463 |
+
persona_description_input = gr.Textbox(label="Contexte/Activité pour l'image (optionnel, en anglais)", lines=1)
|
464 |
+
|
465 |
+
with gr.Accordion("🎨 Détails Visuels (Optionnel)", open=False):
|
466 |
+
with gr.Row():
|
467 |
+
skin_color_input = gr.Dropdown(label="Teint", choices=list(skin_color_mapping.keys()), value="")
|
468 |
+
eye_color_input = gr.Dropdown(label="Yeux", choices=list(eye_color_mapping.keys()), value="")
|
469 |
+
with gr.Row():
|
470 |
+
hair_style_input = gr.Dropdown(label="Coiffure", choices=list(hair_style_mapping.keys()), value="")
|
471 |
+
hair_color_input = gr.Dropdown(label="Cheveux", choices=list(hair_color_mapping.keys()), value="")
|
472 |
+
with gr.Row():
|
473 |
+
facial_expression_input = gr.Dropdown(label="Expression", choices=list(facial_expression_mapping.keys()), value="")
|
474 |
+
posture_input = gr.Dropdown(label="Posture", choices=list(posture_mapping.keys()), value="")
|
475 |
+
with gr.Row():
|
476 |
+
clothing_style_input = gr.Dropdown(label="Style Vêtements", choices=list(clothing_style_mapping.keys()), value="")
|
477 |
+
accessories_input = gr.Dropdown(label="Accessoires", choices=list(accessories_mapping.keys()), value="")
|
478 |
+
reset_visuals_button = gr.Button("Réinitialiser Détails Visuels", size="sm")
|
479 |
+
|
480 |
+
with gr.Column(scale=1): # Colonne de droite pour l'image et le bouton
|
481 |
+
persona_image_output = gr.Image(label="Image du Persona", type="filepath", height=400) # filepath pour stocker le chemin
|
482 |
+
generate_image_button = gr.Button("🖼️ Générer / Mettre à jour l'Image")
|
483 |
+
gr.Markdown("<small>💡 **Attention :** Les IA génératrices d'images peuvent reproduire des stéréotypes. Utilisez les détails visuels pour créer une représentation nuancée et inclusive.</small>", elem_classes="warning")
|
484 |
+
|
485 |
+
# Logique de l'onglet 2
|
486 |
+
visual_inputs = [
|
487 |
skin_color_input, eye_color_input, hair_style_input, hair_color_input,
|
488 |
facial_expression_input, posture_input, clothing_style_input, accessories_input
|
489 |
]
|
490 |
+
reset_visuals_button.click(lambda: [""] * len(visual_inputs), outputs=visual_inputs)
|
491 |
+
|
492 |
+
generate_image_button.click(
|
493 |
+
fn=generate_persona_image_v2,
|
494 |
+
inputs=[
|
495 |
+
first_name_input, last_name_input, age_input, gender_input, persona_description_input,
|
496 |
+
skin_color_input, eye_color_input, hair_style_input, hair_color_input,
|
497 |
+
facial_expression_input, posture_input, clothing_style_input, accessories_input,
|
498 |
+
session_log_state # Passer l'état du log
|
499 |
+
],
|
500 |
+
outputs=[persona_image_path_state, session_log_state] # Stocker le chemin de l'image dans l'état
|
501 |
+
).then(
|
502 |
+
lambda path_state: path_state.value, # Récupérer la valeur du chemin depuis l'état
|
503 |
+
inputs=persona_image_path_state,
|
504 |
+
outputs=persona_image_output # Mettre à jour l'affichage de l'image
|
505 |
+
)
|
506 |
+
|
507 |
+
|
508 |
+
# --- Onglet 3 : Profil Détaillé & Raffinement IA ---
|
509 |
+
with gr.Tab("📝 Étape 3: Profil Détaillé & Raffinement IA", id=2):
|
510 |
+
gr.Markdown("### 3. Complétez les détails du persona")
|
511 |
+
gr.Markdown("Remplissez les champs suivants. Utilisez le bouton '💡 Affiner' pour obtenir des suggestions de l'IA visant à améliorer le champ spécifique, en tenant compte de votre objectif initial et des biais potentiels identifiés.")
|
512 |
+
|
513 |
+
# Organiser en sections pour plus de clarté
|
514 |
+
with gr.Row():
|
515 |
+
with gr.Column():
|
516 |
+
gr.Markdown("#### Infos Socio-Démographiques")
|
517 |
+
marital_status_input = gr.Dropdown(label="État civil", choices=["", "Célibataire", "En couple", "Marié(e)", "Divorcé(e)", "Veuf(ve)"])
|
518 |
+
education_level_input = gr.Dropdown(label="Niveau d'éducation", choices=["", "Études secondaires", "Baccalauréat", "Licence", "Master", "Doctorat", "Autre"])
|
519 |
+
profession_input = gr.Textbox(label="Profession")
|
520 |
+
income_input = gr.Number(label="Revenus annuels (€)", minimum=0, step=1000)
|
521 |
+
|
522 |
+
gr.Markdown("#### Psychographie")
|
523 |
+
with gr.Row(equal_height=False):
|
524 |
+
personality_traits_input = gr.Textbox(label="Traits de personnalité", lines=2, scale=4)
|
525 |
+
refine_personality_traits_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
526 |
+
with gr.Row(equal_height=False):
|
527 |
+
values_beliefs_input = gr.Textbox(label="Valeurs et croyances", lines=2, scale=4)
|
528 |
+
refine_values_beliefs_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
529 |
+
with gr.Row(equal_height=False):
|
530 |
+
motivations_input = gr.Textbox(label="Motivations (objectifs, désirs)", lines=2, scale=4)
|
531 |
+
refine_motivations_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
532 |
+
with gr.Row(equal_height=False):
|
533 |
+
hobbies_interests_input = gr.Textbox(label="Loisirs et intérêts", lines=2, scale=4)
|
534 |
+
refine_hobbies_interests_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
535 |
+
|
536 |
+
with gr.Column():
|
537 |
+
gr.Markdown("#### Relation au Produit/Service")
|
538 |
+
with gr.Row(equal_height=False):
|
539 |
+
technology_relationship_input = gr.Textbox(label="Relation avec la technologie (ex: early adopter, prudent...)", lines=2, scale=4)
|
540 |
+
refine_technology_relationship_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
541 |
+
with gr.Row(equal_height=False):
|
542 |
+
product_related_activities_input = gr.Textbox(label="Tâches/activités liées à votre produit/service", lines=2, scale=4)
|
543 |
+
refine_product_related_activities_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
544 |
+
with gr.Row(equal_height=False):
|
545 |
+
pain_points_input = gr.Textbox(label="Points de douleur (frustrations, problèmes)", lines=2, scale=4)
|
546 |
+
refine_pain_points_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
547 |
+
with gr.Row(equal_height=False):
|
548 |
+
product_goals_input = gr.Textbox(label="Objectifs en utilisant votre produit/service", lines=2, scale=4)
|
549 |
+
refine_product_goals_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
550 |
+
with gr.Row(equal_height=False):
|
551 |
+
usage_scenarios_input = gr.Textbox(label="Scénarios d'utilisation typiques", lines=2, scale=4)
|
552 |
+
refine_usage_scenarios_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
553 |
+
|
554 |
+
# Ajouter les autres champs de V1 ici si nécessaire (Responsabilités, Journée type, Marketing...) pour un persona complet
|
555 |
+
with gr.Accordion("Autres Informations (Optionnel)", open=False):
|
556 |
+
with gr.Row():
|
557 |
+
with gr.Column():
|
558 |
+
gr.Markdown("#### Contexte Professionnel/Vie Quotidienne")
|
559 |
+
with gr.Row(equal_height=False):
|
560 |
+
main_responsibilities_input = gr.Textbox(label="Responsabilités principales (pro/perso)", lines=2, scale=4)
|
561 |
+
refine_main_responsibilities_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
562 |
+
with gr.Row(equal_height=False):
|
563 |
+
daily_activities_input = gr.Textbox(label="Activités journalières typiques", lines=2, scale=4)
|
564 |
+
refine_daily_activities_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
565 |
+
with gr.Row(equal_height=False):
|
566 |
+
daily_life_input = gr.Textbox(label="Une journée type / Citation marquante", lines=2, scale=4)
|
567 |
+
refine_daily_life_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
568 |
+
|
569 |
+
with gr.Column():
|
570 |
+
gr.Markdown("#### Marketing & Considérations Spéciales")
|
571 |
+
with gr.Row(equal_height=False):
|
572 |
+
brand_relationship_input = gr.Textbox(label="Relation avec la marque", lines=2, scale=4)
|
573 |
+
refine_brand_relationship_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
574 |
+
with gr.Row(equal_height=False):
|
575 |
+
market_segment_input = gr.Textbox(label="Segment de marché", lines=2, scale=4)
|
576 |
+
refine_market_segment_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
577 |
+
with gr.Row(equal_height=False):
|
578 |
+
commercial_objectives_input = gr.Textbox(label="Objectifs commerciaux liés (SMART)", lines=2, scale=4)
|
579 |
+
refine_commercial_objectives_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
580 |
+
with gr.Row(equal_height=False):
|
581 |
+
visual_codes_input = gr.Textbox(label="Codes visuels / Marques préférées", lines=2, scale=4)
|
582 |
+
refine_visual_codes_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
583 |
+
with gr.Row(equal_height=False):
|
584 |
+
special_considerations_input = gr.Textbox(label="Considérations spéciales (accessibilité, culturelles...)", lines=2, scale=4)
|
585 |
+
refine_special_considerations_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
586 |
+
with gr.Row(equal_height=False):
|
587 |
+
references_input = gr.Textbox(label="Références / Sources de données", lines=2, scale=4)
|
588 |
+
refine_references_button = gr.Button("💡 Affiner", scale=1, size='sm')
|
589 |
+
|
590 |
+
# Fonction lambda générique pour appeler refine_persona_details_v2
|
591 |
+
def create_refine_lambda(field_name_display, input_component):
|
592 |
+
return lambda fname, lname, age_val, field_val, bias_state, objectives, log_state: \
|
593 |
+
refine_persona_details_v2(fname, lname, age_val, field_name_display, field_val, json.dumps(bias_state) if bias_state else None, objectives, log_state)
|
594 |
+
|
595 |
+
# Lier chaque bouton "Affiner"
|
596 |
+
common_inputs = [first_name_input, last_name_input, age_input]
|
597 |
+
state_inputs = [bias_analysis_result_state, objective_input, session_log_state]
|
598 |
+
common_outputs = [session_log_state] # Sortie invisible pour mettre à jour le log
|
599 |
+
|
600 |
+
refine_personality_traits_button.click(create_refine_lambda("Traits de personnalité", personality_traits_input), inputs=common_inputs + [personality_traits_input] + state_inputs, outputs=common_outputs)
|
601 |
+
refine_values_beliefs_button.click(create_refine_lambda("Valeurs et croyances", values_beliefs_input), inputs=common_inputs + [values_beliefs_input] + state_inputs, outputs=common_outputs)
|
602 |
+
refine_motivations_button.click(create_refine_lambda("Motivations", motivations_input), inputs=common_inputs + [motivations_input] + state_inputs, outputs=common_outputs)
|
603 |
+
refine_hobbies_interests_button.click(create_refine_lambda("Loisirs et intérêts", hobbies_interests_input), inputs=common_inputs + [hobbies_interests_input] + state_inputs, outputs=common_outputs)
|
604 |
+
refine_technology_relationship_button.click(create_refine_lambda("Relation avec la technologie", technology_relationship_input), inputs=common_inputs + [technology_relationship_input] + state_inputs, outputs=common_outputs)
|
605 |
+
refine_product_related_activities_button.click(create_refine_lambda("Tâches liées au produit", product_related_activities_input), inputs=common_inputs + [product_related_activities_input] + state_inputs, outputs=common_outputs)
|
606 |
+
refine_pain_points_button.click(create_refine_lambda("Points de douleur", pain_points_input), inputs=common_inputs + [pain_points_input] + state_inputs, outputs=common_outputs)
|
607 |
+
refine_product_goals_button.click(create_refine_lambda("Objectifs produit", product_goals_input), inputs=common_inputs + [product_goals_input] + state_inputs, outputs=common_outputs)
|
608 |
+
refine_usage_scenarios_button.click(create_refine_lambda("Scénarios d'utilisation", usage_scenarios_input), inputs=common_inputs + [usage_scenarios_input] + state_inputs, outputs=common_outputs)
|
609 |
+
# Ajouter les clics pour les autres boutons "Affiner" si ajoutés...
|
610 |
+
refine_main_responsibilities_button.click(create_refine_lambda("Responsabilités principales", main_responsibilities_input), inputs=common_inputs + [main_responsibilities_input] + state_inputs, outputs=common_outputs)
|
611 |
+
refine_daily_activities_button.click(create_refine_lambda("Activités journalières", daily_activities_input), inputs=common_inputs + [daily_activities_input] + state_inputs, outputs=common_outputs)
|
612 |
+
refine_daily_life_button.click(create_refine_lambda("Journée type/Citation", daily_life_input), inputs=common_inputs + [daily_life_input] + state_inputs, outputs=common_outputs)
|
613 |
+
refine_brand_relationship_button.click(create_refine_lambda("Relation marque", brand_relationship_input), inputs=common_inputs + [brand_relationship_input] + state_inputs, outputs=common_outputs)
|
614 |
+
refine_market_segment_button.click(create_refine_lambda("Segment marché", market_segment_input), inputs=common_inputs + [market_segment_input] + state_inputs, outputs=common_outputs)
|
615 |
+
refine_commercial_objectives_button.click(create_refine_lambda("Objectifs commerciaux", commercial_objectives_input), inputs=common_inputs + [commercial_objectives_input] + state_inputs, outputs=common_outputs)
|
616 |
+
refine_visual_codes_button.click(create_refine_lambda("Codes visuels", visual_codes_input), inputs=common_inputs + [visual_codes_input] + state_inputs, outputs=common_outputs)
|
617 |
+
refine_special_considerations_button.click(create_refine_lambda("Considérations spéciales", special_considerations_input), inputs=common_inputs + [special_considerations_input] + state_inputs, outputs=common_outputs)
|
618 |
+
refine_references_button.click(create_refine_lambda("Références", references_input), inputs=common_inputs + [references_input] + state_inputs, outputs=common_outputs)
|
619 |
+
|
620 |
+
|
621 |
+
# --- Onglet 4 : Résumé du Persona ---
|
622 |
+
with gr.Tab("📄 Étape 4: Résumé du Persona", id=3):
|
623 |
+
gr.Markdown("### 4. Visualisez le persona complet")
|
624 |
+
summary_button = gr.Button("Générer le Résumé du Persona")
|
625 |
+
summary_content = gr.Markdown(elem_classes="persona-summary") # Ajouter une classe pour CSS potentiel
|
626 |
+
|
627 |
+
# Collecter tous les inputs nécessaires pour le résumé
|
628 |
+
all_persona_inputs = [
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
629 |
first_name_input, last_name_input, age_input, gender_input, persona_description_input,
|
630 |
skin_color_input, eye_color_input, hair_style_input, hair_color_input,
|
631 |
+
facial_expression_input, posture_input, clothing_style_input, accessories_input,
|
|
|
632 |
marital_status_input, education_level_input, profession_input, income_input,
|
633 |
personality_traits_input, values_beliefs_input, motivations_input, hobbies_interests_input,
|
634 |
main_responsibilities_input, daily_activities_input, technology_relationship_input,
|
635 |
+
product_related_activities_input, pain_points_input, product_goals_input, usage_scenarios_input,
|
636 |
+
brand_relationship_input, market_segment_input, commercial_objectives_input,
|
637 |
+
visual_codes_input, special_considerations_input, daily_life_input, references_input,
|
638 |
+
persona_image_path_state, # Passer l'état contenant le chemin de l'image
|
639 |
+
session_log_state
|
640 |
+
]
|
641 |
+
|
642 |
+
summary_button.click(
|
643 |
+
fn=generate_summary_v2,
|
644 |
+
inputs=all_persona_inputs,
|
645 |
+
outputs=[summary_content, session_log_state] # Met à jour le contenu et le log
|
646 |
+
)
|
647 |
+
|
648 |
+
# --- Onglet 5 : Journal de Bord ---
|
649 |
+
with gr.Tab("📓 Journal de Bord", id=4):
|
650 |
+
gr.Markdown("### Suivi du Processus de Création")
|
651 |
+
gr.Markdown("Ce journal enregistre les étapes clés de votre session pour faciliter l'analyse et la traçabilité.")
|
652 |
+
log_display_final = gr.Textbox(label="Historique de la session", lines=20, interactive=False)
|
653 |
+
export_log_button_final = gr.Button("Exporter le Journal en .txt")
|
654 |
+
log_file_output = gr.File(label="Télécharger le Journal", file_count="single", visible=False) # Caché initialement
|
655 |
+
|
656 |
+
# Mettre à jour l'affichage du log quand l'état change
|
657 |
+
session_log_state.change(
|
658 |
+
fn=lambda log_data: log_data,
|
659 |
+
inputs=session_log_state,
|
660 |
+
outputs=log_display_final
|
661 |
+
)
|
662 |
+
|
663 |
+
# Fonction pour préparer et retourner le fichier log
|
664 |
+
def export_log_file(log_data):
|
665 |
+
if not log_data:
|
666 |
+
return gr.update(visible=False)
|
667 |
+
# Créer un fichier texte temporaire
|
668 |
+
with tempfile.NamedTemporaryFile(mode='w', delete=False, suffix='.txt', encoding='utf-8') as temp_file:
|
669 |
+
temp_file.write(log_data)
|
670 |
+
temp_filepath = temp_file.name
|
671 |
+
print(f"Log exporté vers : {temp_filepath}") # Pour debug
|
672 |
+
# Mettre à jour le composant File pour proposer le téléchargement
|
673 |
+
return gr.update(value=temp_filepath, visible=True)
|
674 |
+
|
675 |
+
export_log_button_final.click(
|
676 |
+
fn=export_log_file,
|
677 |
+
inputs=session_log_state,
|
678 |
+
outputs=log_file_output
|
679 |
+
)
|
680 |
+
|
681 |
+
# Lancer l'application
|
682 |
+
demo.queue().launch(debug=True, share=False) # Share=False par défaut pour sécurité avec clé API
|