Moguiy commited on
Commit
89ac221
·
verified ·
1 Parent(s): 24f1756

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +744 -388
app.py CHANGED
@@ -1,36 +1,33 @@
1
  import gradio as gr
2
  from openai import OpenAI
 
3
  from pydantic import BaseModel, Field
4
  import os
5
  import requests
6
  from PIL import Image
7
  import tempfile
8
- import numpy as np
9
- import markdown
 
10
  import base64
11
  import datetime
12
  import json
 
13
  from dotenv import load_dotenv
14
 
15
- # --- Configuration ---
16
  load_dotenv() # Charge les variables depuis un fichier .env s'il existe
17
 
18
- api_key = os.getenv("OPENROUTER_API_KEY")
 
 
 
19
 
20
- if not api_key:
21
- print("ERREUR: Clé API OpenRouter non trouvée. Définissez OPENROUTER_API_KEY dans l'environnement ou le fichier .env.")
22
- # Mettre ici une gestion d'erreur plus propre si besoin
23
-
24
- # Initialisation du client OpenAI pour pointer vers OpenRouter
25
- client = OpenAI(
26
- base_url="https://openrouter.ai/api/v1",
27
- api_key=api_key,
28
- )
29
-
30
- MODEL_NAME="google/gemini-2.5-pro-exp-03-25:free"
31
-
32
- # --- Modèles Pydantic pour la structuration ---
33
 
 
34
  class BiasInfo(BaseModel):
35
  bias_type: str = Field(..., description="Type de biais identifié (ex: Stéréotype de genre, Biais de confirmation)")
36
  explanation: str = Field(..., description="Explication de pourquoi cela pourrait être un biais dans ce contexte.")
@@ -40,10 +37,9 @@ class BiasAnalysisResponse(BaseModel):
40
  detected_biases: list[BiasInfo] = Field(default_factory=list, description="Liste des biais potentiels détectés.")
41
  overall_comment: str = Field(default="", description="Commentaire général ou indication si aucun biais majeur n'est détecté.")
42
 
 
43
 
44
- # --- Fonctions Utilitaires ---
45
-
46
- # Dictionnaires de correspondance (conservés de V1)
47
  posture_mapping = {"": "","Debout": "standing up","Assis": "sitting","Allongé": "lying down","Accroupi": "crouching","En mouvement": "moving","Reposé": "resting"}
48
  facial_expression_mapping = {"": "","Souriant": "smiling","Sérieux": "serious","Triste": "sad","En colère": "angry","Surpris": "surprised","Pensif": "thoughtful"}
49
  skin_color_mapping = {"": "","Clair": "light","Moyen": "medium","Foncé": "dark","Très foncé": "very dark"}
@@ -53,27 +49,59 @@ hair_color_mapping = {"": "","Blond": "blonde","Brun": "brown","Noir": "black","
53
  clothing_style_mapping = {"": "","Décontracté": "casual","Professionnel": "professional","Sportif": "sporty"}
54
  accessories_mapping = {"": "","Lunettes": "glasses","Montre": "watch","Chapeau": "hat"}
55
 
56
- # Fonction de mise à jour du journal
 
57
  def update_log(event_description, session_log_state):
 
58
  timestamp = datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")
59
  new_log_entry = f"[{timestamp}] {event_description}"
60
- current_log = session_log_state.value if session_log_state.value else ""
61
- # Limiter la taille du log si nécessaire pour éviter des problèmes de performance
62
- log_lines = current_log.splitlines()
63
- if len(log_lines) > 100: # Garde les 100 dernières lignes par exemple
64
- current_log = "\n".join(log_lines[-100:])
65
- updated_log = current_log + new_log_entry + "\n"
66
- session_log_state.value = updated_log
67
- return updated_log
68
-
69
- # --- Fonctions Principales de l'Application ---
70
 
71
- def analyze_biases_v2(objective_text, session_log_state):
72
- """Analyse les biais dans l'objectif marketing (V2 avec prompt ciblé)."""
73
- log_event_start = f"Analyse Biais Objectif (début): '{objective_text[:50]}...'"
74
- update_log(log_event_start, session_log_state)
75
-
76
- # Prompt système V2 (catégories + exemples)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
77
  system_prompt = f"""
78
  Tu es un expert en marketing éthique et en psychologie cognitive, spécialisé dans la création de personas.
79
  Analyse l'objectif marketing suivant : "{objective_text}"
@@ -102,139 +130,206 @@ def analyze_biases_v2(objective_text, session_log_state):
102
  }}
103
  Réponds en français. S'il n'y a pas de biais clair, retourne une liste 'detected_biases' vide et indique-le dans 'overall_comment'.
104
  """
 
 
105
  try:
106
- completion = client.chat.completions.create(
107
- model=MODEL_NAME,
108
  messages=[
109
- {"role": "user", "content": system_prompt} # Intégration de l'objectif dans le prompt système peut être plus robuste pour certains modèles
 
 
110
  ],
111
  temperature=0.4,
112
  max_tokens=800,
113
- response_format={"type": "json_object"}, # Demander explicitement du JSON si le modèle le supporte bien
 
114
  )
115
 
116
  response_content_str = completion.choices[0].message.content
117
- # Essayer de parser la réponse JSON
118
- parsed_response = BiasAnalysisResponse.parse_raw(response_content_str)
119
-
120
- log_event_end = f"Analyse Biais Objectif (fin): Biais trouvés - {len(parsed_response.detected_biases)}"
121
- update_log(log_event_end, session_log_state)
122
- return parsed_response.dict(), update_log("", session_log_state) # Retourne dict et log mis à jour
123
-
 
 
 
 
 
 
 
 
 
 
 
 
124
  except Exception as e:
125
- error_msg = f"Erreur pendant l'analyse des biais: {str(e)}. Réponse brute: {response_content_str if 'response_content_str' in locals() else 'N/A'}"
126
  print(error_msg)
127
- update_log(f"ERREUR Analyse Biais: {str(e)}", session_log_state)
128
- # Retourner une structure d'erreur compatible
129
- error_response = BiasAnalysisResponse(overall_comment=f"Erreur technique lors de l'analyse: {str(e)}").dict()
130
- return error_response, update_log("", session_log_state)
131
 
132
  def display_bias_analysis_v2(analysis_result):
133
  """Formate l'analyse des biais pour l'affichage avec HighlightedText."""
134
- if not analysis_result or "error" in analysis_result:
135
- return [("Erreur ou pas de résultat.", None)], analysis_result # Retourne un format compatible HighlightedText
 
136
 
137
  biases = analysis_result.get("detected_biases", [])
138
  overall_comment = analysis_result.get("overall_comment", "")
139
 
140
  highlighted_data = []
141
- if not biases:
 
 
142
  highlighted_data.append((overall_comment or "Aucun biais majeur détecté.", "INFO"))
143
  else:
144
- if overall_comment:
145
- highlighted_data.append((overall_comment + "\n", "COMMENT"))
146
- for bias_info in biases:
147
- highlighted_data.append((f"⚠️ {bias_info['bias_type']}: ", "BIAS_TYPE"))
148
- highlighted_data.append((f"{bias_info['explanation']} ", "EXPLANATION"))
149
- highlighted_data.append((f"💡 Conseil: {bias_info['advice']}\n", "ADVICE"))
150
-
151
- # Retourne les données formatées pour HighlightedText et le résultat brut pour usage ultérieur
152
- return highlighted_data, analysis_result
153
-
154
-
155
- def generate_persona_image_v2(*args):
156
- """Génère l'image du persona (V2 avec logging)."""
157
  # Les 13 premiers args sont les inputs de l'image, le dernier est session_log_state
158
  inputs = args[:-1]
159
  session_log_state = args[-1]
160
- (first_name, last_name, age, gender, persona_description,
 
161
  skin_color, eye_color, hair_style, hair_color, facial_expression,
162
  posture, clothing_style, accessories) = inputs
163
 
 
 
 
 
 
 
 
 
164
  if not first_name or not last_name or not age or not gender:
165
- gr.Info("Veuillez remplir tous les champs pour générer l'image du persona.")
166
- return None, update_log("Génération Image: Champs manquants.", session_log_state)
167
-
168
- prompt = f"one person only. {first_name} {last_name}, {gender}, {age} years old. Realistic photo style."
169
-
170
- # Mapping et ajout des détails
171
- details = ""
172
- if skin_color: details += f" Skin tone: {skin_color_mapping.get(skin_color, skin_color)}."
173
- if eye_color: details += f" Eye color: {eye_color_mapping.get(eye_color, eye_color)}."
174
- if hair_style: details += f" Hairstyle: {hair_style_mapping.get(hair_style, hair_style)}."
175
- if hair_color: details += f" Hair color: {hair_color_mapping.get(hair_color, hair_color)}."
176
- if facial_expression: details += f" Facial expression: {facial_expression_mapping.get(facial_expression, facial_expression)}."
177
- if posture: details += f" Posture: {posture_mapping.get(posture, posture)}."
178
- if clothing_style: details += f" Clothing style: {clothing_style_mapping.get(clothing_style, clothing_style)}."
179
- if accessories: details += f" Accessories: {accessories_mapping.get(accessories, accessories)}."
180
- if persona_description: details += f" Background context or activity: {persona_description}."
181
-
182
- final_prompt = prompt + details
183
- log_event_start = f"Génération Image (début): Prompt='{final_prompt[:100]}...'"
184
- update_log(log_event_start, session_log_state)
 
 
 
 
 
 
 
 
 
 
 
185
 
186
  try:
187
- response = client.images.generate(
188
- model="dall-e-3", # OpenRouter pourrait ne pas supporter DALL-E 3 directement, vérifier la compatibilité ou utiliser un modèle image dispo via OpenRouter
189
- # Alternative possible via OpenRouter : "stabilityai/stable-diffusion-xl-1024-v1-0" (nécessite ajustement)
190
- # Pour l'instant on laisse DALL-E 3 en supposant une clé OpenAI valide aussi, ou l'utilisateur devra adapter
191
  prompt=final_prompt,
192
  size="1024x1024",
193
  n=1,
 
 
 
194
  )
195
- image_url = response.data[0].url
196
- response_image = requests.get(image_url)
197
- response_image.raise_for_status() # Vérifie les erreurs HTTP
198
-
199
- # Utiliser BytesIO pour éviter fichier temporaire si possible avec Gradio Image
200
- # img_bytes = response_image.content
201
- # pil_image = Image.open(BytesIO(img_bytes))
202
- # return pil_image, update_log("Génération Image (fin): Succès.", session_log_state)
203
-
204
- # Méthode avec fichier temporaire (comme V1) si BytesIO pose problème
205
- temp_image = tempfile.NamedTemporaryFile(delete=False, suffix='.png')
206
- with open(temp_image.name, 'wb') as f:
207
- f.write(response_image.content)
208
- image_path = temp_image.name
209
- update_log(f"Génération Image (fin): Succès. Image @ {image_path}", session_log_state)
210
- return image_path, update_log("", session_log_state) # Retourne chemin et log
211
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
212
  except Exception as e:
213
  error_msg = f"Erreur lors de la génération de l'image: {str(e)}"
214
  print(error_msg)
215
- update_log(f"ERREUR Génération Image: {str(e)}", session_log_state)
216
- gr.Error(error_msg)
217
- return None, update_log("", session_log_state)
218
 
219
- def refine_persona_details_v2(first_name, last_name, age, field_name, field_value, bias_analysis_json_str, marketing_objectives, session_log_state):
220
- """Affine les détails du persona (V2 avec lien aux biais et logging)."""
 
 
221
 
222
- log_event_start = f"Refinement (début): Champ='{field_name}', Valeur initiale='{field_value[:50]}...'"
223
- update_log(log_event_start, session_log_state)
 
 
 
 
224
 
225
- # Essayer de récupérer les biais détectés précédemment
226
- biases_text = "Aucune analyse de biais précédente disponible."
227
- if bias_analysis_json_str:
228
- try:
229
- bias_analysis_data = json.loads(bias_analysis_json_str) # Charger depuis l'état caché
230
- detected_biases = bias_analysis_data.get("detected_biases", [])
231
- if detected_biases:
232
- biases_text = "\n".join([f"- {b['bias_type']}: {b['explanation']}" for b in detected_biases])
233
- else:
234
- biases_text = "Aucun biais majeur détecté lors de l'analyse initiale."
235
- except Exception as e:
236
- biases_text = f"Erreur lors de la récupération des biais analysés: {e}"
237
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
238
  system_prompt = f"""
239
  Tu es un assistant IA expert en marketing éthique, aidant à affiner le persona marketing pour '{first_name} {last_name}' ({age} ans).
240
  L'objectif marketing initial était : "{marketing_objectives}"
@@ -242,94 +337,125 @@ def refine_persona_details_v2(first_name, last_name, age, field_name, field_valu
242
  {biases_text}
243
 
244
  Tâche: Concentre-toi UNIQUEMENT sur le champ '{field_name}' dont la valeur actuelle est '{field_value}'.
245
- Propose 1 à 2 suggestions CONCISES pour améliorer ou nuancer cette valeur.
246
- Tes suggestions doivent viser à rendre le persona plus réaliste, moins stéréotypé, et/ou à ATTÉNUER les biais potentiels listés ci-dessus, tout en restant cohérent avec l'objectif marketing général.
247
- Si la valeur actuelle semble bonne ou si tu manques de contexte, indique-le simplement.
248
- Réponds en français. Ne fournis que les suggestions.
 
 
 
 
 
249
  """
 
250
  try:
251
- response = client.chat.completions.create(
252
- model=MODEL_NAME,
253
  messages=[{"role": "user", "content": system_prompt}],
254
- temperature=0.5, # Un peu plus de créativité pour les suggestions
255
  max_tokens=150,
256
  )
257
  suggestions = response.choices[0].message.content.strip()
258
 
259
- log_event_end = f"Refinement (fin): Champ='{field_name}'. Suggestions: '{suggestions[:50]}...'"
260
- update_log(log_event_end, session_log_state)
261
-
262
- # Affiche les suggestions dans une InfoBox
263
- gr.Info(f"Suggestions pour '{field_name}':\n{suggestions}")
264
- return update_log("", session_log_state) # Retourne juste le log mis à jour pour l'output invisible
265
-
 
 
 
 
 
 
 
266
  except Exception as e:
267
  error_msg = f"Erreur lors du raffinement pour '{field_name}': {str(e)}"
268
  print(error_msg)
269
- update_log(f"ERREUR Refinement '{field_name}': {str(e)}", session_log_state)
270
- gr.Error(error_msg)
271
- return update_log("", session_log_state)
272
 
273
  def generate_summary_v2(*args):
274
- """Génère le résumé du persona (V2 avec logging et meilleure gestion image)."""
275
- # Les 28 premiers args sont les inputs persona, le 29ème est persona_image_path, le 30ème est session_log_state
276
- inputs = args[:-1]
 
277
  session_log_state = args[-1]
278
- (first_name, last_name, age, gender, persona_description,
 
 
 
279
  skin_color, eye_color, hair_style, hair_color, facial_expression,
280
  posture, clothing_style, accessories,
281
  marital_status, education_level, profession, income,
282
  personality_traits, values_beliefs, motivations, hobbies_interests,
283
  main_responsibilities, daily_activities, technology_relationship,
284
- product_related_activities, pain_points, product_goals, usage_scenarios, # Ajout usage_scenarios
285
- brand_relationship, market_segment, commercial_objectives, # Ajout autres champs V1
286
- visual_codes, special_considerations, daily_life, references, # Ajout autres champs V1
287
- persona_image_path # Récupère le chemin de l'image
288
  ) = inputs
289
 
290
- log_event = f"Génération Résumé: Pour '{first_name} {last_name}'."
291
- update_log(log_event, session_log_state)
292
 
293
  summary = ""
294
  image_html = "<div style='flex: 0 0 320px; margin-left: 20px; text-align: center;'>\n" # Div pour l'image
295
 
296
  if not first_name or not last_name or not age:
297
- summary += "**Veuillez fournir au moins le prénom, le nom et l'âge (Étape 2).**\n"
 
298
  image_html += "<p>Image non générée.</p>\n"
299
  else:
300
- # Essayer de charger et encoder l'image depuis le chemin stocké
301
- if persona_image_path and os.path.exists(persona_image_path):
302
  try:
303
- with open(persona_image_path, "rb") as img_file:
304
- img_bytes = img_file.read()
305
- img_base64 = base64.b64encode(img_bytes).decode()
306
- img_data_url = f"data:image/png;base64,{img_base64}"
307
- image_html += f"<img src='{img_data_url}' alt='Persona {first_name}' style='max-width: 300px; height: auto; border: 1px solid #eee; border-radius: 5px;'/>\n"
 
 
 
308
  except Exception as e:
309
- image_html += f"<p>Erreur chargement image: {e}</p>\n"
310
- update_log(f"ERREUR Chargement Image Résumé: {e}", session_log_state)
 
311
  else:
312
- image_html += "<p>Aucune image générée.</p>\n"
313
 
314
  # Section Informations Personnelles (Titre centré)
315
  summary += f"<div style='text-align: center;'><h1>{first_name} {last_name}, {age} ans ({gender})</h1></div>\n"
316
- if persona_description: summary += f"<p><i>{persona_description}</i></p>\n"
 
 
 
317
 
318
  # Assemblage des autres sections (avec vérification si champ rempli)
319
  def add_section(title, fields):
320
  content = ""
321
  for label, value in fields.items():
322
- if value: # N'ajoute que si la valeur existe
323
- # Formatage spécial pour les revenus
324
- if label == "Revenus annuels (€)" and isinstance(value, (int, float)):
325
- value_str = f"{value:,.0f} €".replace(",", " ") # Format numérique
326
- else:
327
- value_str = str(value)
328
- content += f"**{label}**: {value_str}<br>\n"
 
 
 
 
 
 
 
329
  if content:
330
- return f"<h3>{title}</h3>\n{content}<br>\n"
 
331
  return ""
332
 
 
333
  summary += add_section("Infos Socio-Démographiques", {
334
  "État civil": marital_status, "Niveau d'éducation": education_level,
335
  "Profession": profession, "Revenus annuels (€)": income
@@ -340,59 +466,177 @@ def generate_summary_v2(*args):
340
  })
341
  summary += add_section("Relation au Produit/Service", {
342
  "Relation avec la technologie": technology_relationship,
343
- "Tâches liées au produit": product_related_activities,
344
  "Points de douleur (Pain points)": pain_points,
345
- "Objectifs d’utilisation du produit": product_goals,
346
- "Scénarios d’utilisation": usage_scenarios
347
  })
348
  summary += add_section("Contexte Professionnel/Vie Quotidienne", {
349
- "Responsabilités principales": main_responsibilities,
350
- "Activités journalières": daily_activities,
351
- "Une journée dans la vie": daily_life
352
  })
353
  summary += add_section("Marketing & Considérations Spéciales", {
354
- "Relation avec la marque": brand_relationship,
355
- "Segment de marché": market_segment,
356
- "Objectifs commerciaux (SMART)": commercial_objectives,
357
- "Graphiques et codes visuels": visual_codes,
358
- "Considérations spéciales (accessibilité)": special_considerations,
359
- "Références (sources de données)": references
360
  })
361
 
362
  image_html += "</div>\n" # Ferme div image
363
 
364
- # Assemblage final avec flexbox
365
- final_html = "<div style='display: flex; flex-wrap: wrap; align-items: flex-start;'>\n"
366
- final_html += f"<div style='flex: 1; min-width: 300px;'>\n{summary}</div>\n" # Colonne texte
367
  final_html += image_html # Colonne image
368
  final_html += "</div>"
369
 
370
- return final_html, update_log("", session_log_state) # Retourne HTML et log
371
-
372
- # --- Interface Gradio V2 ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
373
 
374
- with gr.Blocks(theme=gr.themes.Soft(primary_hue="teal", secondary_hue="orange")) as demo:
375
- gr.Markdown("# PersonaGenAI V2 : Assistant de Création de Persona")
376
- gr.Markdown("Outil d'aide à la création de personas marketing, intégrant l'IA générative pour stimuler la créativité et la réflexivité face aux biais cognitifs et algorithmiques.")
377
 
378
- # --- État Global ---
379
- # Pour stocker le résultat de l'analyse de biais pour l'utiliser dans l'étape 3
380
- # Utiliser du JSON comme chaîne de caractères pour passer des données structurées
381
- bias_analysis_result_state = gr.State(value=None)
382
- # Pour stocker le chemin de l'image générée
383
- persona_image_path_state = gr.State(value=None)
384
- # Pour stocker le log de session
385
- session_log_state = gr.State(value="")
386
 
 
387
  with gr.Tabs() as tabs:
388
 
389
- # --- Onglet 0 : Configuration API (Optionnel mais bonne pratique) ---
390
  with gr.Tab("🔑 Configuration API", id=-1):
391
- gr.Markdown("### Configuration OpenRouter API")
392
- gr.Markdown(f"Utilise le modèle : `{MODEL_NAME}` via OpenRouter. Utiliser : google/gemini-2.5-pro-exp-03-25:free")
393
- # Possibilité d'ajouter un input pour changer la clé si besoin, mais pas essentiel pour la démo AIMS
394
- gr.HTML(f"<small>Clé utilisée (tronquée): {api_key[:10]}...{api_key[-4:] if len(api_key)>14 else ''}</small>")
395
-
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
396
 
397
  # --- Onglet 1 : Objectif & Analyse Biais ---
398
  with gr.Tab("🎯 Étape 1: Objectif & Analyse Biais", id=0):
@@ -401,7 +645,6 @@ with gr.Blocks(theme=gr.themes.Soft(primary_hue="teal", secondary_hue="orange"))
401
  with gr.Row():
402
  objective_input = gr.Textbox(label="Objectif marketing pour ce persona", lines=4, scale=3)
403
  with gr.Column(scale=1):
404
- # Exemples pour guider l'utilisateur
405
  gr.Markdown("<small>Suggestions d'objectifs :</small>")
406
  suggestion_button1 = gr.Button("Exemple 1 : Service Écologique Urbain", size="sm")
407
  suggestion_button2 = gr.Button("Exemple 2 : App Fitness Seniors", size="sm")
@@ -411,7 +654,7 @@ with gr.Blocks(theme=gr.themes.Soft(primary_hue="teal", secondary_hue="orange"))
411
  bias_analysis_output_highlighted = gr.HighlightedText(
412
  label="Biais détectés et Conseils",
413
  show_legend=True,
414
- color_map={"BIAS_TYPE": "red", "EXPLANATION": "gray", "ADVICE": "green", "INFO": "blue", "COMMENT": "orange"}
415
  )
416
  gr.Markdown("---")
417
  gr.Markdown("### 🤔 Réflexion")
@@ -429,30 +672,33 @@ with gr.Blocks(theme=gr.themes.Soft(primary_hue="teal", secondary_hue="orange"))
429
  suggestion_button1.click(lambda: suggestion1_text, outputs=objective_input)
430
  suggestion_button2.click(lambda: suggestion2_text, outputs=objective_input)
431
 
 
432
  analyze_button.click(
433
  fn=analyze_biases_v2,
434
- inputs=[objective_input, session_log_state],
435
- outputs=[bias_analysis_result_state, session_log_state] # Stocke le résultat JSON brut dans l'état
436
  ).then(
437
- fn=display_bias_analysis_v2,
438
- inputs=bias_analysis_result_state, # Utilise le résultat stocké
439
- outputs=[bias_analysis_output_highlighted, bias_analysis_result_state] # Affiche formaté + remet dans l'état (pour màj)
440
  ).then(
441
- fn=lambda log: update_log("", log), # Force la MAJ du log display via l'état
442
- inputs=session_log_state,
443
- outputs=session_log_state # Ne change rien mais déclenche l'update du textbox log
 
444
  )
445
 
 
446
  def log_user_reflection(reflection_text, log_state):
447
- update_log(f"Réflexion Utilisateur (Étape 1): '{reflection_text}'", log_state)
448
- return update_log("", log_state)
449
-
450
  log_reflection_button.click(
451
  fn=log_user_reflection,
452
  inputs=[user_reflection_on_biases, session_log_state],
453
  outputs=[session_log_state]
454
  )
455
 
 
456
  # --- Onglet 2 : Image & Infos Base ---
457
  with gr.Tab("👤 Étape 2: Image & Infos Base", id=1):
458
  gr.Markdown("### 2. Créez l'identité visuelle et les informations de base")
@@ -461,28 +707,30 @@ with gr.Blocks(theme=gr.themes.Soft(primary_hue="teal", secondary_hue="orange"))
461
  first_name_input = gr.Textbox(label="Prénom")
462
  last_name_input = gr.Textbox(label="Nom")
463
  age_input = gr.Slider(label="Âge", minimum=18, maximum=100, step=1, value=30)
464
- gender_input = gr.Radio(label="Genre", choices=["Homme", "Femme", "Non-binaire"], value="Homme") # Ajout Non-binaire
465
- persona_description_input = gr.Textbox(label="Contexte/Activité pour l'image (optionnel, en anglais)", lines=1)
466
 
467
  with gr.Accordion("🎨 Détails Visuels (Optionnel)", open=False):
468
- with gr.Row():
469
- skin_color_input = gr.Dropdown(label="Teint", choices=list(skin_color_mapping.keys()), value="")
470
- eye_color_input = gr.Dropdown(label="Yeux", choices=list(eye_color_mapping.keys()), value="")
471
- with gr.Row():
472
- hair_style_input = gr.Dropdown(label="Coiffure", choices=list(hair_style_mapping.keys()), value="")
473
- hair_color_input = gr.Dropdown(label="Cheveux", choices=list(hair_color_mapping.keys()), value="")
474
- with gr.Row():
475
- facial_expression_input = gr.Dropdown(label="Expression", choices=list(facial_expression_mapping.keys()), value="")
476
- posture_input = gr.Dropdown(label="Posture", choices=list(posture_mapping.keys()), value="")
477
- with gr.Row():
478
- clothing_style_input = gr.Dropdown(label="Style Vêtements", choices=list(clothing_style_mapping.keys()), value="")
479
- accessories_input = gr.Dropdown(label="Accessoires", choices=list(accessories_mapping.keys()), value="")
480
- reset_visuals_button = gr.Button("Réinitialiser Détails Visuels", size="sm")
481
 
482
  with gr.Column(scale=1): # Colonne de droite pour l'image et le bouton
483
- persona_image_output = gr.Image(label="Image du Persona", type="filepath", height=400) # filepath pour stocker le chemin
484
- generate_image_button = gr.Button("🖼️ Générer / Mettre à jour l'Image")
485
- gr.Markdown("<small>💡 **Attention :** Les IA génératrices d'images peuvent reproduire des stéréotypes. Utilisez les détails visuels pour créer une représentation nuancée et inclusive.</small>", elem_classes="warning")
 
 
486
 
487
  # Logique de l'onglet 2
488
  visual_inputs = [
@@ -491,144 +739,221 @@ with gr.Blocks(theme=gr.themes.Soft(primary_hue="teal", secondary_hue="orange"))
491
  ]
492
  reset_visuals_button.click(lambda: [""] * len(visual_inputs), outputs=visual_inputs)
493
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
494
  generate_image_button.click(
495
- fn=generate_persona_image_v2,
496
- inputs=[
497
- first_name_input, last_name_input, age_input, gender_input, persona_description_input,
498
  skin_color_input, eye_color_input, hair_style_input, hair_color_input,
499
  facial_expression_input, posture_input, clothing_style_input, accessories_input,
500
- session_log_state # Passer l'état du log
501
  ],
502
- outputs=[persona_image_path_state, session_log_state] # Stocker le chemin de l'image dans l'état
503
- ).then(
504
- lambda path_state: path_state.value, # Récupérer la valeur du chemin depuis l'état
505
- inputs=persona_image_path_state,
506
- outputs=persona_image_output # Mettre à jour l'affichage de l'image
 
 
 
 
 
 
 
 
507
  )
508
 
 
 
 
 
 
 
509
 
510
  # --- Onglet 3 : Profil Détaillé & Raffinement IA ---
511
  with gr.Tab("📝 Étape 3: Profil Détaillé & Raffinement IA", id=2):
512
- gr.Markdown("### 3. Complétez les détails du persona")
513
- gr.Markdown("Remplissez les champs suivants. Utilisez le bouton '💡 Affiner' pour obtenir des suggestions de l'IA visant à améliorer le champ spécifique, en tenant compte de votre objectif initial et des biais potentiels identifiés.")
514
-
515
- # Organiser en sections pour plus de clarté
516
- with gr.Row():
517
- with gr.Column():
518
- gr.Markdown("#### Infos Socio-Démographiques")
519
- marital_status_input = gr.Dropdown(label="État civil", choices=["", "Célibataire", "En couple", "Marié(e)", "Divorcé(e)", "Veuf(ve)"])
520
- education_level_input = gr.Dropdown(label="Niveau d'éducation", choices=["", "Études secondaires", "Baccalauréat", "Licence", "Master", "Doctorat", "Autre"])
521
- profession_input = gr.Textbox(label="Profession")
522
- income_input = gr.Number(label="Revenus annuels (€)", minimum=0, step=1000)
523
-
524
- gr.Markdown("#### Psychographie")
525
- with gr.Row(equal_height=False):
526
- personality_traits_input = gr.Textbox(label="Traits de personnalité", lines=2, scale=4)
527
- refine_personality_traits_button = gr.Button("💡 Affiner", scale=1, size='sm')
528
- with gr.Row(equal_height=False):
529
- values_beliefs_input = gr.Textbox(label="Valeurs et croyances", lines=2, scale=4)
530
- refine_values_beliefs_button = gr.Button("💡 Affiner", scale=1, size='sm')
531
- with gr.Row(equal_height=False):
532
- motivations_input = gr.Textbox(label="Motivations (objectifs, désirs)", lines=2, scale=4)
533
- refine_motivations_button = gr.Button("💡 Affiner", scale=1, size='sm')
534
- with gr.Row(equal_height=False):
535
- hobbies_interests_input = gr.Textbox(label="Loisirs et intérêts", lines=2, scale=4)
536
- refine_hobbies_interests_button = gr.Button("💡 Affiner", scale=1, size='sm')
537
-
538
- with gr.Column():
539
- gr.Markdown("#### Relation au Produit/Service")
540
- with gr.Row(equal_height=False):
541
- technology_relationship_input = gr.Textbox(label="Relation avec la technologie (ex: early adopter, prudent...)", lines=2, scale=4)
542
- refine_technology_relationship_button = gr.Button("💡 Affiner", scale=1, size='sm')
543
- with gr.Row(equal_height=False):
544
- product_related_activities_input = gr.Textbox(label="Tâches/activités liées à votre produit/service", lines=2, scale=4)
545
- refine_product_related_activities_button = gr.Button("💡 Affiner", scale=1, size='sm')
546
- with gr.Row(equal_height=False):
547
- pain_points_input = gr.Textbox(label="Points de douleur (frustrations, problèmes)", lines=2, scale=4)
548
- refine_pain_points_button = gr.Button("💡 Affiner", scale=1, size='sm')
549
- with gr.Row(equal_height=False):
550
- product_goals_input = gr.Textbox(label="Objectifs en utilisant votre produit/service", lines=2, scale=4)
551
- refine_product_goals_button = gr.Button("💡 Affiner", scale=1, size='sm')
552
- with gr.Row(equal_height=False):
553
- usage_scenarios_input = gr.Textbox(label="Scénarios d'utilisation typiques", lines=2, scale=4)
554
- refine_usage_scenarios_button = gr.Button("💡 Affiner", scale=1, size='sm')
555
-
556
- # Ajouter les autres champs de V1 ici si nécessaire (Responsabilités, Journée type, Marketing...) pour un persona complet
557
- with gr.Accordion("Autres Informations (Optionnel)", open=False):
558
- with gr.Row():
559
- with gr.Column():
560
- gr.Markdown("#### Contexte Professionnel/Vie Quotidienne")
561
- with gr.Row(equal_height=False):
562
- main_responsibilities_input = gr.Textbox(label="Responsabilités principales (pro/perso)", lines=2, scale=4)
563
- refine_main_responsibilities_button = gr.Button("💡 Affiner", scale=1, size='sm')
564
- with gr.Row(equal_height=False):
565
- daily_activities_input = gr.Textbox(label="Activités journalières typiques", lines=2, scale=4)
566
- refine_daily_activities_button = gr.Button("💡 Affiner", scale=1, size='sm')
567
- with gr.Row(equal_height=False):
568
- daily_life_input = gr.Textbox(label="Une journée type / Citation marquante", lines=2, scale=4)
569
- refine_daily_life_button = gr.Button("💡 Affiner", scale=1, size='sm')
570
-
571
- with gr.Column():
572
- gr.Markdown("#### Marketing & Considérations Spéciales")
573
- with gr.Row(equal_height=False):
574
- brand_relationship_input = gr.Textbox(label="Relation avec la marque", lines=2, scale=4)
575
- refine_brand_relationship_button = gr.Button("💡 Affiner", scale=1, size='sm')
576
- with gr.Row(equal_height=False):
577
- market_segment_input = gr.Textbox(label="Segment de marché", lines=2, scale=4)
578
- refine_market_segment_button = gr.Button("💡 Affiner", scale=1, size='sm')
579
- with gr.Row(equal_height=False):
580
- commercial_objectives_input = gr.Textbox(label="Objectifs commerciaux liés (SMART)", lines=2, scale=4)
581
- refine_commercial_objectives_button = gr.Button("💡 Affiner", scale=1, size='sm')
582
- with gr.Row(equal_height=False):
583
- visual_codes_input = gr.Textbox(label="Codes visuels / Marques préférées", lines=2, scale=4)
584
- refine_visual_codes_button = gr.Button("💡 Affiner", scale=1, size='sm')
585
- with gr.Row(equal_height=False):
586
- special_considerations_input = gr.Textbox(label="Considérations spéciales (accessibilité, culturelles...)", lines=2, scale=4)
587
- refine_special_considerations_button = gr.Button("💡 Affiner", scale=1, size='sm')
588
- with gr.Row(equal_height=False):
589
- references_input = gr.Textbox(label="Références / Sources de données", lines=2, scale=4)
590
- refine_references_button = gr.Button("💡 Affiner", scale=1, size='sm')
591
-
592
- # Fonction lambda générique pour appeler refine_persona_details_v2
593
- def create_refine_lambda(field_name_display, input_component):
594
- return lambda fname, lname, age_val, field_val, bias_state, objectives, log_state: \
595
- refine_persona_details_v2(fname, lname, age_val, field_name_display, field_val, json.dumps(bias_state) if bias_state else None, objectives, log_state)
596
-
597
- # Lier chaque bouton "Affiner"
598
- common_inputs = [first_name_input, last_name_input, age_input]
599
- state_inputs = [bias_analysis_result_state, objective_input, session_log_state]
600
- common_outputs = [session_log_state] # Sortie invisible pour mettre à jour le log
601
-
602
- refine_personality_traits_button.click(create_refine_lambda("Traits de personnalité", personality_traits_input), inputs=common_inputs + [personality_traits_input] + state_inputs, outputs=common_outputs)
603
- refine_values_beliefs_button.click(create_refine_lambda("Valeurs et croyances", values_beliefs_input), inputs=common_inputs + [values_beliefs_input] + state_inputs, outputs=common_outputs)
604
- refine_motivations_button.click(create_refine_lambda("Motivations", motivations_input), inputs=common_inputs + [motivations_input] + state_inputs, outputs=common_outputs)
605
- refine_hobbies_interests_button.click(create_refine_lambda("Loisirs et intérêts", hobbies_interests_input), inputs=common_inputs + [hobbies_interests_input] + state_inputs, outputs=common_outputs)
606
- refine_technology_relationship_button.click(create_refine_lambda("Relation avec la technologie", technology_relationship_input), inputs=common_inputs + [technology_relationship_input] + state_inputs, outputs=common_outputs)
607
- refine_product_related_activities_button.click(create_refine_lambda("Tâches liées au produit", product_related_activities_input), inputs=common_inputs + [product_related_activities_input] + state_inputs, outputs=common_outputs)
608
- refine_pain_points_button.click(create_refine_lambda("Points de douleur", pain_points_input), inputs=common_inputs + [pain_points_input] + state_inputs, outputs=common_outputs)
609
- refine_product_goals_button.click(create_refine_lambda("Objectifs produit", product_goals_input), inputs=common_inputs + [product_goals_input] + state_inputs, outputs=common_outputs)
610
- refine_usage_scenarios_button.click(create_refine_lambda("Scénarios d'utilisation", usage_scenarios_input), inputs=common_inputs + [usage_scenarios_input] + state_inputs, outputs=common_outputs)
611
- # Ajouter les clics pour les autres boutons "Affiner" si ajoutés...
612
- refine_main_responsibilities_button.click(create_refine_lambda("Responsabilités principales", main_responsibilities_input), inputs=common_inputs + [main_responsibilities_input] + state_inputs, outputs=common_outputs)
613
- refine_daily_activities_button.click(create_refine_lambda("Activités journalières", daily_activities_input), inputs=common_inputs + [daily_activities_input] + state_inputs, outputs=common_outputs)
614
- refine_daily_life_button.click(create_refine_lambda("Journée type/Citation", daily_life_input), inputs=common_inputs + [daily_life_input] + state_inputs, outputs=common_outputs)
615
- refine_brand_relationship_button.click(create_refine_lambda("Relation marque", brand_relationship_input), inputs=common_inputs + [brand_relationship_input] + state_inputs, outputs=common_outputs)
616
- refine_market_segment_button.click(create_refine_lambda("Segment marché", market_segment_input), inputs=common_inputs + [market_segment_input] + state_inputs, outputs=common_outputs)
617
- refine_commercial_objectives_button.click(create_refine_lambda("Objectifs commerciaux", commercial_objectives_input), inputs=common_inputs + [commercial_objectives_input] + state_inputs, outputs=common_outputs)
618
- refine_visual_codes_button.click(create_refine_lambda("Codes visuels", visual_codes_input), inputs=common_inputs + [visual_codes_input] + state_inputs, outputs=common_outputs)
619
- refine_special_considerations_button.click(create_refine_lambda("Considérations spéciales", special_considerations_input), inputs=common_inputs + [special_considerations_input] + state_inputs, outputs=common_outputs)
620
- refine_references_button.click(create_refine_lambda("Références", references_input), inputs=common_inputs + [references_input] + state_inputs, outputs=common_outputs)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
621
 
622
 
623
  # --- Onglet 4 : Résumé du Persona ---
624
  with gr.Tab("📄 Étape 4: Résumé du Persona", id=3):
625
  gr.Markdown("### 4. Visualisez le persona complet")
626
  summary_button = gr.Button("Générer le Résumé du Persona")
627
- summary_content = gr.Markdown(elem_classes="persona-summary") # Ajouter une classe pour CSS potentiel
 
628
 
629
- # Collecter tous les inputs nécessaires pour le résumé
630
- all_persona_inputs = [
631
- first_name_input, last_name_input, age_input, gender_input, persona_description_input,
632
  skin_color_input, eye_color_input, hair_style_input, hair_color_input,
633
  facial_expression_input, posture_input, clothing_style_input, accessories_input,
634
  marital_status_input, education_level_input, profession_input, income_input,
@@ -637,48 +962,79 @@ with gr.Blocks(theme=gr.themes.Soft(primary_hue="teal", secondary_hue="orange"))
637
  product_related_activities_input, pain_points_input, product_goals_input, usage_scenarios_input,
638
  brand_relationship_input, market_segment_input, commercial_objectives_input,
639
  visual_codes_input, special_considerations_input, daily_life_input, references_input,
640
- persona_image_path_state, # Passer l'état contenant le chemin de l'image
 
641
  session_log_state
642
  ]
643
 
644
  summary_button.click(
645
- fn=generate_summary_v2,
646
- inputs=all_persona_inputs,
647
- outputs=[summary_content, session_log_state] # Met à jour le contenu et le log
648
- )
649
 
650
  # --- Onglet 5 : Journal de Bord ---
651
  with gr.Tab("📓 Journal de Bord", id=4):
652
  gr.Markdown("### Suivi du Processus de Création")
653
- gr.Markdown("Ce journal enregistre les étapes clés de votre session pour faciliter l'analyse et la traçabilité.")
654
- log_display_final = gr.Textbox(label="Historique de la session", lines=20, interactive=False)
655
  export_log_button_final = gr.Button("Exporter le Journal en .txt")
656
- log_file_output = gr.File(label="Télécharger le Journal", file_count="single", visible=False) # Caché initialement
 
 
 
657
 
658
  # Mettre à jour l'affichage du log quand l'état change
659
  session_log_state.change(
660
- fn=lambda log_data: log_data,
661
- inputs=session_log_state,
662
- outputs=log_display_final
 
 
 
 
 
 
 
663
  )
664
 
665
- # Fonction pour préparer et retourner le fichier log
666
- def export_log_file(log_data):
667
  if not log_data:
668
- return gr.update(visible=False)
669
- # Créer un fichier texte temporaire
670
- with tempfile.NamedTemporaryFile(mode='w', delete=False, suffix='.txt', encoding='utf-8') as temp_file:
671
- temp_file.write(log_data)
672
- temp_filepath = temp_file.name
673
- print(f"Log exporté vers : {temp_filepath}") # Pour debug
674
- # Mettre à jour le composant File pour proposer le téléchargement
675
- return gr.update(value=temp_filepath, visible=True)
 
 
 
 
 
 
 
676
 
677
  export_log_button_final.click(
678
- fn=export_log_file,
679
  inputs=session_log_state,
680
- outputs=log_file_output
681
  )
682
 
683
  # Lancer l'application
684
- demo.queue().launch(debug=True, share=False) # Share=False par défaut pour sécurité avec clé API
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  import gradio as gr
2
  from openai import OpenAI
3
+ import openai # Import top-level for error types
4
  from pydantic import BaseModel, Field
5
  import os
6
  import requests
7
  from PIL import Image
8
  import tempfile
9
+ import io # For BytesIO
10
+ # import numpy as np # Not strictly needed if using PIL
11
+ import markdown # Required by gr.Markdown implicitly
12
  import base64
13
  import datetime
14
  import json
15
+ import re # For cleaning JSON
16
  from dotenv import load_dotenv
17
 
18
+ # --- Configuration Initiale ---
19
  load_dotenv() # Charge les variables depuis un fichier .env s'il existe
20
 
21
+ # Clé OpenRouter (obligatoire pour le fonctionnement de base)
22
+ openrouter_api_key = os.getenv("OPENROUTER_API_KEY")
23
+ OPENROUTER_TEXT_MODEL = "google/gemini-pro-1.5" # Modèle OpenRouter par défaut
24
+ # OPENROUTER_TEXT_MODEL = "google/gemini-flash-1.5" # Alternative plus rapide
25
 
26
+ # Modèles OpenAI (utilisés si clé fournie)
27
+ OPENAI_TEXT_MODEL = "gpt-4o-mini" # ou "gpt-4o"
28
+ OPENAI_IMAGE_MODEL = "dall-e-3"
 
 
 
 
 
 
 
 
 
 
29
 
30
+ # --- Modèles Pydantic (Inchangé) ---
31
  class BiasInfo(BaseModel):
32
  bias_type: str = Field(..., description="Type de biais identifié (ex: Stéréotype de genre, Biais de confirmation)")
33
  explanation: str = Field(..., description="Explication de pourquoi cela pourrait être un biais dans ce contexte.")
 
37
  detected_biases: list[BiasInfo] = Field(default_factory=list, description="Liste des biais potentiels détectés.")
38
  overall_comment: str = Field(default="", description="Commentaire général ou indication si aucun biais majeur n'est détecté.")
39
 
40
+ # --- Fonctions Utilitaires (Mises à jour) ---
41
 
42
+ # Dictionnaires de correspondance (Inchangés)
 
 
43
  posture_mapping = {"": "","Debout": "standing up","Assis": "sitting","Allongé": "lying down","Accroupi": "crouching","En mouvement": "moving","Reposé": "resting"}
44
  facial_expression_mapping = {"": "","Souriant": "smiling","Sérieux": "serious","Triste": "sad","En colère": "angry","Surpris": "surprised","Pensif": "thoughtful"}
45
  skin_color_mapping = {"": "","Clair": "light","Moyen": "medium","Foncé": "dark","Très foncé": "very dark"}
 
49
  clothing_style_mapping = {"": "","Décontracté": "casual","Professionnel": "professional","Sportif": "sporty"}
50
  accessories_mapping = {"": "","Lunettes": "glasses","Montre": "watch","Chapeau": "hat"}
51
 
52
+ # Fonction de mise à jour du journal (Limitée et formatée)
53
+ MAX_LOG_LINES = 150
54
  def update_log(event_description, session_log_state):
55
+ """Ajoute une entrée au log et le retourne, en limitant sa taille."""
56
  timestamp = datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")
57
  new_log_entry = f"[{timestamp}] {event_description}"
58
+ current_log = session_log_state if session_log_state else ""
 
 
 
 
 
 
 
 
 
59
 
60
+ # Limiter la taille du log
61
+ log_lines = current_log.splitlines()
62
+ # Garde les N dernières lignes
63
+ if len(log_lines) >= MAX_LOG_LINES:
64
+ current_log = "\n".join(log_lines[-(MAX_LOG_LINES-1):])
65
+
66
+ updated_log = current_log + "\n" + new_log_entry if current_log else new_log_entry
67
+ return updated_log.strip() # Retourne le log mis à jour
68
+
69
+ def clean_json_response(raw_response):
70
+ """Tente d'extraire un bloc JSON valide d'une réponse LLM potentiellement bruitée."""
71
+ # Recherche d'un bloc JSON marqué par ```json ... ```
72
+ match = re.search(r"```json\s*({.*?})\s*```", raw_response, re.DOTALL | re.IGNORECASE)
73
+ if match:
74
+ return match.group(1)
75
+ # Recherche d'un objet JSON commençant par { et finissant par }
76
+ match = re.search(r"({.*?})", raw_response, re.DOTALL)
77
+ if match:
78
+ # Essayer de parser pour vérifier si c'est valide
79
+ try:
80
+ json.loads(match.group(1))
81
+ return match.group(1)
82
+ except json.JSONDecodeError:
83
+ pass # Si ça échoue, on continue
84
+
85
+ # Si rien ne fonctionne, retourne la réponse brute en espérant qu'elle soit déjà du JSON
86
+ return raw_response.strip()
87
+
88
+ # --- Fonctions Principales de l'Application (Mises à jour) ---
89
+
90
+ def analyze_biases_v2(app_config, objective_text, session_log_state):
91
+ """Analyse les biais dans l'objectif marketing (utilise le client API actif)."""
92
+ log = session_log_state
93
+ log = update_log(f"Analyse Biais Objectif (début): '{objective_text[:50]}...'", log)
94
+
95
+ if not objective_text:
96
+ return BiasAnalysisResponse(overall_comment="Veuillez fournir un objectif marketing.").dict(), update_log("Analyse Biais: Objectif vide.", log)
97
+
98
+ if not app_config.get("client"):
99
+ return BiasAnalysisResponse(overall_comment="Erreur: Client API non configuré.").dict(), update_log("ERREUR Analyse Biais: Client non configuré.", log)
100
+
101
+ active_client = app_config["client"]
102
+ model_name = app_config["text_model"]
103
+
104
+ # Prompt système V2 (Inchangé)
105
  system_prompt = f"""
106
  Tu es un expert en marketing éthique et en psychologie cognitive, spécialisé dans la création de personas.
107
  Analyse l'objectif marketing suivant : "{objective_text}"
 
130
  }}
131
  Réponds en français. S'il n'y a pas de biais clair, retourne une liste 'detected_biases' vide et indique-le dans 'overall_comment'.
132
  """
133
+
134
+ response_content_str = "" # Init pour le bloc except
135
  try:
136
+ completion = active_client.chat.completions.create(
137
+ model=model_name,
138
  messages=[
139
+ # Note: Certains modèles préfèrent l'objectif dans le message user, d'autres intégré au system prompt.
140
+ # Ici, on le met dans le system_prompt.
141
+ {"role": "user", "content": system_prompt}
142
  ],
143
  temperature=0.4,
144
  max_tokens=800,
145
+ # Demander explicitement du JSON si le modèle le supporte bien (OpenAI et certains OpenRouter le font)
146
+ response_format={"type": "json_object"},
147
  )
148
 
149
  response_content_str = completion.choices[0].message.content
150
+ # Nettoyage de la réponse avant parsing
151
+ cleaned_response_str = clean_json_response(response_content_str)
152
+
153
+ # Essayer de parser la réponse JSON nettoyée
154
+ parsed_response = BiasAnalysisResponse.parse_raw(cleaned_response_str)
155
+
156
+ log = update_log(f"Analyse Biais Objectif (fin): Biais trouvés - {len(parsed_response.detected_biases)}", log)
157
+ return parsed_response.dict(), log
158
+
159
+ except openai.AuthenticationError as e:
160
+ error_msg = f"Erreur d'authentification API ({app_config.get('api_source', 'Inconnu')}). Vérifiez votre clé."
161
+ print(error_msg)
162
+ log = update_log(f"ERREUR API Auth: {error_msg}", log)
163
+ return BiasAnalysisResponse(overall_comment=error_msg).dict(), log
164
+ except openai.RateLimitError as e:
165
+ error_msg = f"Erreur API ({app_config.get('api_source', 'Inconnu')}): Limite de taux atteinte. Réessayez plus tard."
166
+ print(error_msg)
167
+ log = update_log(f"ERREUR API RateLimit: {error_msg}", log)
168
+ return BiasAnalysisResponse(overall_comment=error_msg).dict(), log
169
  except Exception as e:
170
+ error_msg = f"Erreur pendant l'analyse des biais: {str(e)}. Réponse brute: '{response_content_str[:200]}...'"
171
  print(error_msg)
172
+ log = update_log(f"ERREUR Analyse Biais: {str(e)}", log)
173
+ # Essayer de retourner une structure d'erreur compatible
174
+ return BiasAnalysisResponse(overall_comment=f"Erreur technique lors de l'analyse: {str(e)}").dict(), log
 
175
 
176
  def display_bias_analysis_v2(analysis_result):
177
  """Formate l'analyse des biais pour l'affichage avec HighlightedText."""
178
+ # Prend directement le dict retourné par analyze_biases_v2
179
+ if not analysis_result:
180
+ return [("Aucune analyse effectuée.", None)], {} # Retourne format HighlightedText et dict vide
181
 
182
  biases = analysis_result.get("detected_biases", [])
183
  overall_comment = analysis_result.get("overall_comment", "")
184
 
185
  highlighted_data = []
186
+ if "Erreur" in overall_comment:
187
+ highlighted_data.append((overall_comment, "ERROR")) # Étiquette spécifique pour erreurs
188
+ elif not biases:
189
  highlighted_data.append((overall_comment or "Aucun biais majeur détecté.", "INFO"))
190
  else:
191
+ if overall_comment:
192
+ highlighted_data.append((overall_comment + "\n\n", "COMMENT"))
193
+ for bias_info in biases:
194
+ highlighted_data.append((f"⚠️ {bias_info.get('bias_type', 'Type inconnu')}: ", "BIAS_TYPE"))
195
+ highlighted_data.append((f"{bias_info.get('explanation', 'Pas d\'explication.')} ", "EXPLANATION"))
196
+ highlighted_data.append((f"💡 Conseil: {bias_info.get('advice', 'Pas de conseil.')}\n", "ADVICE"))
197
+
198
+ # Retourne les données formatées et le résultat brut (qui est déjà un dict)
199
+ # Le second output (bias_analysis_result_state) est mis à jour par la fonction appelante si nécessaire
200
+ return highlighted_data
201
+
202
+ def generate_persona_image_v2(app_config, *args):
203
+ """Génère l'image du persona en utilisant OpenAI si activé, sinon retourne None."""
204
  # Les 13 premiers args sont les inputs de l'image, le dernier est session_log_state
205
  inputs = args[:-1]
206
  session_log_state = args[-1]
207
+ log = session_log_state
208
+ (first_name, last_name, age, gender, persona_description_en, # Renommé pour clarté
209
  skin_color, eye_color, hair_style, hair_color, facial_expression,
210
  posture, clothing_style, accessories) = inputs
211
 
212
+ # Vérifier si la génération d'image est activée (nécessite clé OpenAI valide)
213
+ if not app_config.get("image_generation_enabled", False):
214
+ log = update_log("Génération Image: Désactivée (Clé API OpenAI non fournie/valide).", log)
215
+ # Retourne None pour l'image et le log mis à jour.
216
+ # On ajoute aussi un message utilisateur via gr.Info dans le .click
217
+ return None, log, "Génération d'image désactivée. Veuillez fournir une clé API OpenAI valide dans l'onglet Configuration."
218
+
219
+ # Vérifier les champs obligatoires
220
  if not first_name or not last_name or not age or not gender:
221
+ # Ne pas générer si infos de base manquantes
222
+ # Le message utilisateur sera géré dans le .click via gr.Info
223
+ return None, log, "Veuillez remplir Prénom, Nom, Âge et Genre pour générer l'image."
224
+
225
+ # Construire le prompt en anglais
226
+ # Base
227
+ prompt_parts = [f"one person only, close-up portrait photo of {first_name} {last_name}, a {gender} aged {age}."] # Préciser "photo", "portrait"
228
+
229
+ # Détails (utilise les mappings pour traduire les choix FR en termes EN)
230
+ if skin_color_mapping.get(skin_color): prompt_parts.append(f"Skin tone: {skin_color_mapping[skin_color]}.")
231
+ if eye_color_mapping.get(eye_color): prompt_parts.append(f"Eye color: {eye_color_mapping[eye_color]}.")
232
+ if hair_style_mapping.get(hair_style): prompt_parts.append(f"Hairstyle: {hair_style_mapping[hair_style]}.")
233
+ if hair_color_mapping.get(hair_color): prompt_parts.append(f"Hair color: {hair_color_mapping[hair_color]}.")
234
+ if facial_expression_mapping.get(facial_expression): prompt_parts.append(f"Facial expression: {facial_expression_mapping[facial_expression]}.")
235
+ if posture_mapping.get(posture): prompt_parts.append(f"Posture: {posture_mapping[posture]}.")
236
+ if clothing_style_mapping.get(clothing_style): prompt_parts.append(f"Clothing style: {clothing_style_mapping[clothing_style]}.")
237
+ if accessories_mapping.get(accessories): prompt_parts.append(f"Wearing: {accessories_mapping[accessories]}.") # "Wearing" est souvent mieux pour les accessoires
238
+ if persona_description_en: prompt_parts.append(f"Background or context: {persona_description_en}.")
239
+
240
+ # Style final
241
+ prompt_parts.append("Realistic photo style, high detail, natural lighting.")
242
+ final_prompt = " ".join(prompt_parts)
243
+
244
+ log = update_log(f"Génération Image (début): Prompt='{final_prompt[:100]}...'", log)
245
+
246
+ # Utiliser le client OpenAI (car image_generation_enabled est True)
247
+ openai_client = app_config.get("client") # Devrait être le client OpenAI ici
248
+ if not isinstance(openai_client, OpenAI) or app_config.get("api_source") != "openai":
249
+ error_msg = "Erreur interne: Tentative de génération d'image sans client OpenAI valide."
250
+ log = update_log(f"ERREUR Génération Image: {error_msg}", log)
251
+ return None, log, error_msg
252
 
253
  try:
254
+ response = openai_client.images.generate(
255
+ model=OPENAI_IMAGE_MODEL,
 
 
256
  prompt=final_prompt,
257
  size="1024x1024",
258
  n=1,
259
+ response_format="url", # Ou "b64_json"
260
+ quality="standard", # ou "hd"
261
+ style="natural" # ou "vivid"
262
  )
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
263
 
264
+ # Traitement de la réponse (URL ou B64)
265
+ image_url = response.data[0].url
266
+ # Alternative si b64_json:
267
+ # img_b64 = response.data[0].b64_json
268
+ # img_bytes = base64.b64decode(img_b64)
269
+ # pil_image = Image.open(io.BytesIO(img_bytes))
270
+
271
+ # Télécharger l'image depuis l'URL
272
+ img_response = requests.get(image_url)
273
+ img_response.raise_for_status() # Vérifie les erreurs HTTP
274
+
275
+ # Ouvrir l'image avec PIL depuis les bytes téléchargés
276
+ pil_image = Image.open(io.BytesIO(img_response.content))
277
+
278
+ log = update_log("Génération Image (fin): Succès.", log)
279
+ # Retourne l'objet PIL Image, le log, et None pour le message d'erreur
280
+ return pil_image, log, None
281
+
282
+ except openai.AuthenticationError as e:
283
+ error_msg = f"Erreur d'authentification API OpenAI. Vérifiez votre clé."
284
+ print(error_msg)
285
+ log = update_log(f"ERREUR API Auth (Image): {error_msg}", log)
286
+ return None, log, error_msg # Retourne None pour l'image, log, et message d'erreur
287
+ except openai.RateLimitError as e:
288
+ error_msg = f"Erreur API OpenAI (Image): Limite de taux atteinte. Réessayez plus tard."
289
+ print(error_msg)
290
+ log = update_log(f"ERREUR API RateLimit (Image): {error_msg}", log)
291
+ return None, log, error_msg
292
+ except openai.BadRequestError as e: # Erreur fréquente si le prompt est refusé
293
+ error_msg = f"Erreur API OpenAI (Image): Requête invalide (prompt refusé ?). Détails: {e}"
294
+ print(error_msg)
295
+ log = update_log(f"ERREUR API BadRequest (Image): {error_msg}", log)
296
+ return None, log, error_msg
297
  except Exception as e:
298
  error_msg = f"Erreur lors de la génération de l'image: {str(e)}"
299
  print(error_msg)
300
+ log = update_log(f"ERREUR Génération Image: {str(e)}", log)
301
+ return None, log, error_msg
 
302
 
303
+ def refine_persona_details_v2(app_config, first_name, last_name, age, field_name, field_value, bias_analysis_json_str, marketing_objectives, session_log_state):
304
+ """Affine les détails du persona (utilise le client API actif)."""
305
+ log = session_log_state
306
+ log = update_log(f"Refinement (début): Champ='{field_name}', Valeur initiale='{field_value[:50]}...'", log)
307
 
308
+ # Vérifier le client API
309
+ if not app_config.get("client"):
310
+ error_msg = "Erreur: Client API non configuré pour le raffinement."
311
+ log = update_log(f"ERREUR Refinement: Client non configuré.", log)
312
+ # Retourner le log et le message d'erreur pour affichage
313
+ return log, error_msg
314
 
315
+ active_client = app_config["client"]
316
+ model_name = app_config["text_model"]
 
 
 
 
 
 
 
 
 
 
317
 
318
+ # Essayer de récupérer les biais détectés précédemment
319
+ biases_text = "Aucune analyse de biais précédente disponible ou chargée."
320
+ if bias_analysis_json_str: # C'est maintenant un dict, pas une str JSON
321
+ try:
322
+ # bias_analysis_data = json.loads(bias_analysis_json_str) # Plus nécessaire si c'est un dict
323
+ detected_biases = bias_analysis_json_str.get("detected_biases", [])
324
+ if detected_biases:
325
+ biases_text = "\n".join([f"- {b.get('bias_type','N/A')}: {b.get('explanation','N/A')}" for b in detected_biases])
326
+ else:
327
+ biases_text = "Aucun biais majeur détecté lors de l'analyse initiale."
328
+ except Exception as e:
329
+ biases_text = f"Erreur lors de la lecture des biais analysés: {e}"
330
+ log = update_log(f"ERREUR Lecture Biais pour Refinement: {e}", log)
331
+
332
+ # Prompt système
333
  system_prompt = f"""
334
  Tu es un assistant IA expert en marketing éthique, aidant à affiner le persona marketing pour '{first_name} {last_name}' ({age} ans).
335
  L'objectif marketing initial était : "{marketing_objectives}"
 
337
  {biases_text}
338
 
339
  Tâche: Concentre-toi UNIQUEMENT sur le champ '{field_name}' dont la valeur actuelle est '{field_value}'.
340
+ Propose 1 à 2 suggestions CONCISES et ACTIONNABLES pour améliorer, nuancer ou enrichir cette valeur.
341
+ Tes suggestions doivent viser à :
342
+ - Rendre le persona plus r��aliste et moins cliché.
343
+ - ATTÉNUER spécifiquement les biais potentiels listés ci-dessus s'ils sont pertinents pour ce champ.
344
+ - Rester cohérent avec l'objectif marketing général.
345
+ - Éviter les généralisations excessives.
346
+
347
+ Si la valeur actuelle semble bonne ou si tu manques de contexte pour faire une suggestion pertinente, indique-le simplement (ex: "La valeur actuelle semble appropriée." ou "Difficile de suggérer sans plus de contexte.").
348
+ Réponds en français. Ne fournis QUE les suggestions ou le commentaire d'approbation/manque de contexte. Ne répète pas la question.
349
  """
350
+ suggestions = "" # Init pour le bloc except
351
  try:
352
+ response = active_client.chat.completions.create(
353
+ model=model_name,
354
  messages=[{"role": "user", "content": system_prompt}],
355
+ temperature=0.6, # Un peu plus de créativité pour les suggestions
356
  max_tokens=150,
357
  )
358
  suggestions = response.choices[0].message.content.strip()
359
 
360
+ log = update_log(f"Refinement (fin): Champ='{field_name}'. Suggestions: '{suggestions[:50]}...'", log)
361
+ # Retourne le log mis à jour et les suggestions (ou None si erreur)
362
+ return log, suggestions
363
+
364
+ except openai.AuthenticationError as e:
365
+ error_msg = f"Erreur d'authentification API ({app_config.get('api_source', 'Inconnu')}) pendant raffinement. Vérifiez votre clé."
366
+ print(error_msg)
367
+ log = update_log(f"ERREUR API Auth (Refine): {error_msg}", log)
368
+ return log, f"ERREUR: {error_msg}" # Retourne message d'erreur pour affichage
369
+ except openai.RateLimitError as e:
370
+ error_msg = f"Erreur API ({app_config.get('api_source', 'Inconnu')}) (Refine): Limite de taux atteinte."
371
+ print(error_msg)
372
+ log = update_log(f"ERREUR API RateLimit (Refine): {error_msg}", log)
373
+ return log, f"ERREUR: {error_msg}"
374
  except Exception as e:
375
  error_msg = f"Erreur lors du raffinement pour '{field_name}': {str(e)}"
376
  print(error_msg)
377
+ log = update_log(f"ERREUR Refinement '{field_name}': {str(e)}", log)
378
+ return log, f"ERREUR: {error_msg}"
 
379
 
380
  def generate_summary_v2(*args):
381
+ """Génère le résumé HTML du persona (gestion image PIL)."""
382
+ # Le dernier arg est session_log_state, l'avant-dernier est persona_image (PIL ou None)
383
+ inputs = args[:-2] # Tous les champs textuels/numériques/dropdowns
384
+ persona_image_pil = args[-2] # Peut être None ou un objet PIL Image
385
  session_log_state = args[-1]
386
+ log = session_log_state
387
+
388
+ # Extrait tous les champs (assurez-vous que l'ordre correspond à all_persona_inputs_for_summary)
389
+ (first_name, last_name, age, gender, persona_description_en, # Utiliser la version EN pour le contexte image
390
  skin_color, eye_color, hair_style, hair_color, facial_expression,
391
  posture, clothing_style, accessories,
392
  marital_status, education_level, profession, income,
393
  personality_traits, values_beliefs, motivations, hobbies_interests,
394
  main_responsibilities, daily_activities, technology_relationship,
395
+ product_related_activities, pain_points, product_goals, usage_scenarios,
396
+ brand_relationship, market_segment, commercial_objectives,
397
+ visual_codes, special_considerations, daily_life, references
 
398
  ) = inputs
399
 
400
+ log = update_log(f"Génération Résumé: Pour '{first_name} {last_name}'.", log)
 
401
 
402
  summary = ""
403
  image_html = "<div style='flex: 0 0 320px; margin-left: 20px; text-align: center;'>\n" # Div pour l'image
404
 
405
  if not first_name or not last_name or not age:
406
+ summary += "<h2>Informations de base manquantes</h2>\n"
407
+ summary += "<p><i>Veuillez fournir au moins le prénom, le nom et l'âge (Étape 2).</i></p>\n"
408
  image_html += "<p>Image non générée.</p>\n"
409
  else:
410
+ # Intégrer l'image si elle existe (objet PIL)
411
+ if persona_image_pil and isinstance(persona_image_pil, Image.Image):
412
  try:
413
+ # Convertir l'image PIL en base64 pour l'intégrer directement
414
+ buffered = io.BytesIO()
415
+ # Sauvegarder en PNG (ou JPEG si préféré) dans le buffer mémoire
416
+ persona_image_pil.save(buffered, format="PNG")
417
+ img_bytes = buffered.getvalue()
418
+ img_base64 = base64.b64encode(img_bytes).decode()
419
+ img_data_url = f"data:image/png;base64,{img_base64}"
420
+ image_html += f"<img src='{img_data_url}' alt='Persona {first_name}' style='max-width: 300px; height: auto; border: 1px solid #eee; border-radius: 5px; margin-top: 10px;'/>\n"
421
  except Exception as e:
422
+ img_err_msg = f"Erreur encodage image: {e}"
423
+ image_html += f"<p><i>{img_err_msg}</i></p>\n"
424
+ log = update_log(f"ERREUR Encodage Image Résumé: {e}", log)
425
  else:
426
+ image_html += "<p><i>Aucune image générée ou disponible.</i></p>\n"
427
 
428
  # Section Informations Personnelles (Titre centré)
429
  summary += f"<div style='text-align: center;'><h1>{first_name} {last_name}, {age} ans ({gender})</h1></div>\n"
430
+ # Utiliser persona_description_en ici car c'est ce qui a été utilisé pour l'image, ou ajouter un champ description générale FR ?
431
+ # Pour l'instant, on affiche pas la desc EN dans le résumé FR. Ajoutons un champ 'description_persona_fr' ?
432
+ # Solution simple: ne pas afficher de description ici ou ajouter un nouveau champ.
433
+ # summary += f"<p><i>{persona_description_en}</i></p>\n" # Commenté
434
 
435
  # Assemblage des autres sections (avec vérification si champ rempli)
436
  def add_section(title, fields):
437
  content = ""
438
  for label, value in fields.items():
439
+ # N'ajoute que si la valeur existe (n'est pas None, False, 0, ou chaîne vide)
440
+ if value:
441
+ # Formatage spécial pour les revenus
442
+ if label == "Revenus annuels ()" and isinstance(value, (int, float)):
443
+ # Format numérique avec séparateur de milliers (espace)
444
+ try:
445
+ value_str = f"{int(value):,} ".replace(",", " ")
446
+ except ValueError: # Gère le cas où income serait une chaîne ou autre chose
447
+ value_str = str(value) + " €"
448
+ else:
449
+ value_str = str(value)
450
+ # Remplace les sauts de ligne par <br> pour l'affichage HTML
451
+ value_str_html = value_str.replace("\n", "<br>")
452
+ content += f"<b>{label}:</b> {value_str_html}<br>\n"
453
  if content:
454
+ # Ajoute un peu d'espace avant la section
455
+ return f"<h3 style='margin-top: 15px; margin-bottom: 5px; border-bottom: 1px solid #eee; padding-bottom: 2px;'>{title}</h3>\n{content}\n"
456
  return ""
457
 
458
+ # Construire le résumé par sections
459
  summary += add_section("Infos Socio-Démographiques", {
460
  "État civil": marital_status, "Niveau d'éducation": education_level,
461
  "Profession": profession, "Revenus annuels (€)": income
 
466
  })
467
  summary += add_section("Relation au Produit/Service", {
468
  "Relation avec la technologie": technology_relationship,
469
+ "Tâches liées au produit/service": product_related_activities,
470
  "Points de douleur (Pain points)": pain_points,
471
+ "Objectifs d’utilisation du produit/service": product_goals,
472
+ "Scénarios d’utilisation typiques": usage_scenarios
473
  })
474
  summary += add_section("Contexte Professionnel/Vie Quotidienne", {
475
+ "Responsabilités principales": main_responsibilities,
476
+ "Activités journalières": daily_activities,
477
+ "Une journée type / Citation": daily_life # Renommé pour correspondre au label
478
  })
479
  summary += add_section("Marketing & Considérations Spéciales", {
480
+ "Relation avec la marque": brand_relationship,
481
+ "Segment de marché": market_segment,
482
+ "Objectifs commerciaux (SMART)": commercial_objectives,
483
+ "Codes visuels / Marques préférées": visual_codes,
484
+ "Considérations spéciales (accessibilité, culture...)": special_considerations,
485
+ "Références / Sources de données": references
486
  })
487
 
488
  image_html += "</div>\n" # Ferme div image
489
 
490
+ # Assemblage final avec flexbox pour mettre le texte et l'image côte à côte
491
+ final_html = "<div style='display: flex; flex-wrap: wrap; align-items: flex-start; font-family: sans-serif; padding: 10px;'>\n"
492
+ final_html += f"<div style='flex: 1; min-width: 350px; padding-right: 15px;'>\n{summary}</div>\n" # Colonne texte
493
  final_html += image_html # Colonne image
494
  final_html += "</div>"
495
 
496
+ # Retourne le HTML généré et le log mis à jour
497
+ return final_html, log
498
+
499
+ # --- Interface Gradio V2 (Mise à jour avec BYOK et suggestions) ---
500
+
501
+ with gr.Blocks(theme=gr.themes.Soft(primary_hue="teal", secondary_hue="orange", neutral_hue="slate")) as demo:
502
+ gr.Markdown("# PersonaGenAI V2 : Assistant de Création de Persona Marketing")
503
+ gr.Markdown("Outil d'aide à la création de personas, intégrant l'IA générative (OpenRouter ou OpenAI) pour stimuler la créativité et la réflexivité face aux biais.")
504
+
505
+ # --- État Global Partagé ---
506
+ # Stocke la configuration active (client API, modèles, flags)
507
+ app_config_state = gr.State(value={
508
+ "client": None,
509
+ "api_source": None, # 'openai' or 'openrouter'
510
+ "text_model": None,
511
+ "image_generation_enabled": False,
512
+ "openai_key_provided": False,
513
+ "openrouter_key_provided": bool(openrouter_api_key)
514
+ })
515
+ # Stocke le résultat de l'analyse de biais (maintenant un dict)
516
+ bias_analysis_result_state = gr.State(value={})
517
+ # Stocke l'image générée (objet PIL ou None)
518
+ persona_image_pil_state = gr.State(value=None)
519
+ # Stocke le log de session (chaîne de caractères)
520
+ session_log_state = gr.State(value="")
521
+ # Pour afficher les messages d'erreur/status globaux
522
+ status_message_state = gr.State(value="")
523
 
524
+ # --- Affichage Global du Statut/Erreur ---
525
+ status_display = gr.Markdown(value="", elem_classes="status-message") # Pour afficher les messages d'erreur/info
 
526
 
527
+ # Fonction pour mettre à jour le message de statut
528
+ def update_status_display(new_message, current_log):
529
+ # Met aussi à jour le log si un message est affiché
530
+ if new_message:
531
+ current_log = update_log(f"STATUS: {new_message}", current_log)
532
+ return new_message, current_log
 
 
533
 
534
+ # --- Onglets ---
535
  with gr.Tabs() as tabs:
536
 
537
+ # --- Onglet 0 : Configuration API (BYOK) ---
538
  with gr.Tab("🔑 Configuration API", id=-1):
539
+ gr.Markdown("### Configuration des Clés API")
540
+ gr.Markdown("Cette application utilise une IA pour analyser et générer du contenu. Choisissez votre fournisseur d'API.")
541
+
542
+ # Statut de la clé OpenRouter (obligatoire pour le mode de base)
543
+ if openrouter_api_key:
544
+ gr.Markdown("✅ Clé API **OpenRouter** trouvée dans l'environnement (`OPENROUTER_API_KEY`).")
545
+ else:
546
+ gr.Markdown("❌ **Clé API OpenRouter (`OPENROUTER_API_KEY`) non trouvée.** L'application ne pourra pas fonctionner sans cette clé. Veuillez la définir dans vos variables d'environnement ou un fichier `.env`.")
547
+
548
+ # Champ pour la clé OpenAI (optionnelle)
549
+ openai_api_key_input = gr.Textbox(
550
+ label="Clé API OpenAI (Optionnelle)",
551
+ type="password",
552
+ placeholder="Entrez votre clé OpenAI ici pour activer DALL-E 3 et utiliser OpenAI pour le texte",
553
+ info="Si fournie, cette clé sera utilisée pour la génération d'images (DALL-E 3) ET pour l'analyse/raffinement de texte (GPT). Sinon, OpenRouter sera utilisé pour le texte et la génération d'images sera désactivée."
554
+ )
555
+ # Bouton pour appliquer la config (initialise les clients)
556
+ configure_api_button = gr.Button("Appliquer la Configuration API")
557
+ # Affichage du statut de la configuration active
558
+ api_status_display = gr.Markdown("Statut API: Non configuré.")
559
+
560
+ # Fonction de configuration des clients API
561
+ def configure_api_clients(openai_key, current_config, current_log):
562
+ openai_key_provided = bool(openai_key)
563
+ openrouter_key_available = current_config["openrouter_key_provided"]
564
+ status_msg = ""
565
+ config = current_config.copy() # Copie pour modification
566
+
567
+ client = None
568
+ api_source = None
569
+ text_model = None
570
+ image_enabled = False
571
+
572
+ # Priorité à OpenAI si clé fournie
573
+ if openai_key_provided:
574
+ try:
575
+ client = OpenAI(api_key=openai_key)
576
+ # Faire un petit appel test (optionnel mais recommandé)
577
+ # client.models.list() # Peut coûter un peu
578
+ api_source = "openai"
579
+ text_model = OPENAI_TEXT_MODEL
580
+ image_enabled = True
581
+ status_msg = f"✅ Configuration **OpenAI** active (Modèle texte: `{text_model}`, Images: DALL-E 3 activé)."
582
+ config["openai_key_provided"] = True
583
+ except Exception as e:
584
+ status_msg = f"⚠️ Clé OpenAI fournie mais invalide ou problème de connexion: {e}. Basculement vers OpenRouter si possible."
585
+ log_msg = f"ERREUR API Config OpenAI: {e}"
586
+ current_log = update_log(log_msg, current_log)
587
+ print(log_msg)
588
+ # Reset OpenAI specific flags
589
+ config["openai_key_provided"] = False
590
+ openai_key_provided = False # Force fallback if error
591
+
592
+ # Fallback vers OpenRouter si clé OpenAI non fournie ou invalide, ET si clé OpenRouter existe
593
+ if not openai_key_provided:
594
+ if openrouter_key_available:
595
+ try:
596
+ client = OpenAI(
597
+ base_url="https://openrouter.ai/api/v1",
598
+ api_key=openrouter_api_key,
599
+ )
600
+ api_source = "openrouter"
601
+ text_model = OPENROUTER_TEXT_MODEL
602
+ image_enabled = False # Image désactivée avec OpenRouter dans cette config
603
+ status_msg = f"✅ Configuration **OpenRouter** active (Modèle texte: `{text_model}`, Images: Désactivé)."
604
+ except Exception as e:
605
+ status_msg = f"❌ Erreur lors de l'initialisation d'OpenRouter: {e}. L'application risque de ne pas fonctionner."
606
+ log_msg = f"ERREUR API Config OpenRouter: {e}"
607
+ current_log = update_log(log_msg, current_log)
608
+ print(log_msg)
609
+ client = None # Assure que le client est None
610
+ else:
611
+ status_msg = "❌ Aucune clé API valide (OpenAI ou OpenRouter) n'est configurée. L'application ne peut pas fonctionner."
612
+ client = None # Assure que le client est None
613
+
614
+ # Mettre à jour l'état global
615
+ config["client"] = client
616
+ config["api_source"] = api_source
617
+ config["text_model"] = text_model
618
+ config["image_generation_enabled"] = image_enabled
619
+
620
+ log_msg = f"Configuration API appliquée. Source: {api_source or 'Aucune'}, Images: {'Actif' if image_enabled else 'Inactif'}."
621
+ current_log = update_log(log_msg, current_log)
622
+
623
+ # Retourne la nouvelle config, le message de statut, le log mis à jour,
624
+ # et l'état interactif du bouton de génération d'image
625
+ return config, status_msg, current_log, gr.update(interactive=image_enabled)
626
+
627
+ # Lier le bouton de configuration
628
+ # La sortie met à jour : l'état de config, le markdown de statut, l'état du log,
629
+ # et l'interactivité du bouton de génération d'image (qui est dans un autre onglet)
630
+ # On a besoin de référencer le bouton de génération d'image ici. Il faut le définir avant.
631
+ # Solution : On va plutôt mettre à jour l'état `app_config_state`, et le bouton d'image
632
+ # lira cet état quand il sera cliqué. La désactivation visuelle se fera via un .change() sur l'état.
633
+
634
+ configure_api_button.click(
635
+ fn=configure_api_clients,
636
+ inputs=[openai_api_key_input, app_config_state, session_log_state],
637
+ outputs=[app_config_state, api_status_display, session_log_state]
638
+ # L'interactivité du bouton image sera gérée séparément via un .change()
639
+ )
640
 
641
  # --- Onglet 1 : Objectif & Analyse Biais ---
642
  with gr.Tab("🎯 Étape 1: Objectif & Analyse Biais", id=0):
 
645
  with gr.Row():
646
  objective_input = gr.Textbox(label="Objectif marketing pour ce persona", lines=4, scale=3)
647
  with gr.Column(scale=1):
 
648
  gr.Markdown("<small>Suggestions d'objectifs :</small>")
649
  suggestion_button1 = gr.Button("Exemple 1 : Service Écologique Urbain", size="sm")
650
  suggestion_button2 = gr.Button("Exemple 2 : App Fitness Seniors", size="sm")
 
654
  bias_analysis_output_highlighted = gr.HighlightedText(
655
  label="Biais détectés et Conseils",
656
  show_legend=True,
657
+ color_map={"BIAS_TYPE": "red", "EXPLANATION": "gray", "ADVICE": "green", "INFO": "blue", "COMMENT": "orange", "ERROR": "darkred"} # Ajout ERROR
658
  )
659
  gr.Markdown("---")
660
  gr.Markdown("### 🤔 Réflexion")
 
672
  suggestion_button1.click(lambda: suggestion1_text, outputs=objective_input)
673
  suggestion_button2.click(lambda: suggestion2_text, outputs=objective_input)
674
 
675
+ # Action du bouton Analyser
676
  analyze_button.click(
677
  fn=analyze_biases_v2,
678
+ inputs=[app_config_state, objective_input, session_log_state],
679
+ outputs=[bias_analysis_result_state, session_log_state] # Stocke le dict résultat + maj log
680
  ).then(
681
+ fn=display_bias_analysis_v2,
682
+ inputs=bias_analysis_result_state, # Utilise le résultat stocké (dict)
683
+ outputs=bias_analysis_output_highlighted # Affiche formaté
684
  ).then(
685
+ # Met à jour le statut global si l'analyse a retourné une erreur
686
+ fn=lambda result, log: update_status_display(result.get("overall_comment", "") if "Erreur" in result.get("overall_comment", "") else "", log),
687
+ inputs=[bias_analysis_result_state, session_log_state],
688
+ outputs=[status_display, session_log_state]
689
  )
690
 
691
+ # Action du bouton Enregistrer Réflexion
692
  def log_user_reflection(reflection_text, log_state):
693
+ log = update_log(f"Réflexion Utilisateur (Étape 1): '{reflection_text}'", log_state)
694
+ return log
 
695
  log_reflection_button.click(
696
  fn=log_user_reflection,
697
  inputs=[user_reflection_on_biases, session_log_state],
698
  outputs=[session_log_state]
699
  )
700
 
701
+
702
  # --- Onglet 2 : Image & Infos Base ---
703
  with gr.Tab("👤 Étape 2: Image & Infos Base", id=1):
704
  gr.Markdown("### 2. Créez l'identité visuelle et les informations de base")
 
707
  first_name_input = gr.Textbox(label="Prénom")
708
  last_name_input = gr.Textbox(label="Nom")
709
  age_input = gr.Slider(label="Âge", minimum=18, maximum=100, step=1, value=30)
710
+ gender_input = gr.Radio(label="Genre", choices=["Homme", "Femme", "Non-binaire"], value="Homme")
711
+ persona_description_en_input = gr.Textbox(label="Contexte/Activité pour l'image (optionnel, en anglais)", lines=1, info="Ex: 'reading a book in a cozy cafe', 'working on a laptop in a modern office', 'hiking on a sunny day'")
712
 
713
  with gr.Accordion("🎨 Détails Visuels (Optionnel)", open=False):
714
+ with gr.Row():
715
+ skin_color_input = gr.Dropdown(label="Teint", choices=list(skin_color_mapping.keys()), value="")
716
+ eye_color_input = gr.Dropdown(label="Yeux", choices=list(eye_color_mapping.keys()), value="")
717
+ with gr.Row():
718
+ hair_style_input = gr.Dropdown(label="Coiffure", choices=list(hair_style_mapping.keys()), value="")
719
+ hair_color_input = gr.Dropdown(label="Cheveux", choices=list(hair_color_mapping.keys()), value="")
720
+ with gr.Row():
721
+ facial_expression_input = gr.Dropdown(label="Expression", choices=list(facial_expression_mapping.keys()), value="")
722
+ posture_input = gr.Dropdown(label="Posture", choices=list(posture_mapping.keys()), value="")
723
+ with gr.Row():
724
+ clothing_style_input = gr.Dropdown(label="Style Vêtements", choices=list(clothing_style_mapping.keys()), value="")
725
+ accessories_input = gr.Dropdown(label="Accessoires", choices=list(accessories_mapping.keys()), value="")
726
+ reset_visuals_button = gr.Button("Réinitialiser Détails Visuels", size="sm")
727
 
728
  with gr.Column(scale=1): # Colonne de droite pour l'image et le bouton
729
+ # Utiliser type="pil" pour gérer l'image en mémoire
730
+ persona_image_output = gr.Image(label="Image du Persona", type="pil", height=400, interactive=False) # Non éditable par l'utilisateur
731
+ # Ce bouton sera activé/désactivé par la config API
732
+ generate_image_button = gr.Button("🖼️ Générer / Mettre à jour l'Image")
733
+ gr.Markdown("<small>💡 **Attention :** Les IA génératrices d'images peuvent reproduire des stéréotypes. Utilisez les détails visuels avec discernement pour créer une représentation nuancée et inclusive. La génération d'image nécessite une clé API OpenAI valide (voir onglet Configuration).</small>", elem_classes="warning")
734
 
735
  # Logique de l'onglet 2
736
  visual_inputs = [
 
739
  ]
740
  reset_visuals_button.click(lambda: [""] * len(visual_inputs), outputs=visual_inputs)
741
 
742
+ # Action du bouton Générer Image
743
+ # Définit une fonction intermédiaire pour gérer les sorties multiples et les messages
744
+ def handle_image_generation(*args):
745
+ # Le dernier input est app_config_state, l'avant-dernier est log_state
746
+ # Les autres sont les champs du persona
747
+ app_config = args[0]
748
+ log_state = args[-1]
749
+ persona_inputs = args[1:-1] # first_name, last_name, etc.
750
+
751
+ pil_image, updated_log, error_message = generate_persona_image_v2(app_config, *persona_inputs, log_state)
752
+
753
+ # Préparer les mises à jour des composants
754
+ status_update = error_message if error_message else "" # Message pour le statut global
755
+ # Si infos manquantes (retournées par generate_persona.. comme error_message)
756
+ if "Veuillez remplir" in (error_message or ""):
757
+ gr.Info(error_message) # Affiche un popup Gradio Info
758
+ status_update = "" # Ne pas mettre dans le statut global
759
+
760
+ # Si génération désactivée (aussi retourné comme error_message)
761
+ if "Génération d'image désactivée" in (error_message or ""):
762
+ gr.Info(error_message) # Affiche popup
763
+ status_update = "" # Ne pas mettre dans le statut global
764
+
765
+ return pil_image, updated_log, status_update
766
+
767
  generate_image_button.click(
768
+ fn=handle_image_generation,
769
+ inputs=[app_config_state] + [ # Passer l'état de config en premier
770
+ first_name_input, last_name_input, age_input, gender_input, persona_description_en_input,
771
  skin_color_input, eye_color_input, hair_style_input, hair_color_input,
772
  facial_expression_input, posture_input, clothing_style_input, accessories_input,
773
+ session_log_state # Passer l'état du log en dernier
774
  ],
775
+ outputs=[
776
+ persona_image_pil_state, # Met à jour l'état de l'image (PIL ou None)
777
+ session_log_state, # Met à jour l'état du log
778
+ status_message_state # Met à jour l'état du message (pour affichage global)
779
+ ]
780
+ ).then( # Chaîne pour mettre à jour l'affichage de l'image depuis l'état
781
+ fn=lambda img_state: img_state,
782
+ inputs=persona_image_pil_state,
783
+ outputs=persona_image_output
784
+ ).then( # Chaîne pour mettre à jour l'affichage du statut depuis l'état
785
+ fn=lambda status_state, log_state: update_status_display(status_state, log_state),
786
+ inputs=[status_message_state, session_log_state],
787
+ outputs=[status_display, session_log_state]
788
  )
789
 
790
+ # Mettre à jour l'interactivité du bouton quand la config API change
791
+ app_config_state.change(
792
+ fn=lambda config: gr.update(interactive=config.get("image_generation_enabled", False)),
793
+ inputs=app_config_state,
794
+ outputs=generate_image_button
795
+ )
796
 
797
  # --- Onglet 3 : Profil Détaillé & Raffinement IA ---
798
  with gr.Tab("📝 Étape 3: Profil Détaillé & Raffinement IA", id=2):
799
+ gr.Markdown("### 3. Complétez les détails du persona")
800
+ gr.Markdown("Remplissez les champs suivants. Utilisez le bouton '💡 Affiner' pour obtenir des suggestions de l'IA visant à améliorer le champ spécifique, en tenant compte de votre objectif initial et des biais potentiels identifiés.")
801
+
802
+ # Organiser en sections pour plus de clarté
803
+ with gr.Row():
804
+ with gr.Column():
805
+ gr.Markdown("#### Infos Socio-Démographiques")
806
+ marital_status_input = gr.Dropdown(label="État civil", choices=["", "Célibataire", "En couple", "Marié(e)", "Divorcé(e)", "Veuf(ve)"])
807
+ education_level_input = gr.Dropdown(label="Niveau d'éducation", choices=["", "Études secondaires", "Baccalauréat", "Licence", "Master", "Doctorat", "Autre"])
808
+ profession_input = gr.Textbox(label="Profession")
809
+ income_input = gr.Number(label="Revenus annuels (€)", minimum=0, step=1000)
810
+
811
+ gr.Markdown("#### Psychographie")
812
+ with gr.Row(equal_height=False):
813
+ personality_traits_input = gr.Textbox(label="Traits de personnalité", lines=2, scale=4)
814
+ refine_personality_traits_button = gr.Button("💡 Affiner", scale=1, size='sm')
815
+ with gr.Row(equal_height=False):
816
+ values_beliefs_input = gr.Textbox(label="Valeurs et croyances", lines=2, scale=4)
817
+ refine_values_beliefs_button = gr.Button("💡 Affiner", scale=1, size='sm')
818
+ with gr.Row(equal_height=False):
819
+ motivations_input = gr.Textbox(label="Motivations (objectifs, désirs)", lines=2, scale=4)
820
+ refine_motivations_button = gr.Button("💡 Affiner", scale=1, size='sm')
821
+ with gr.Row(equal_height=False):
822
+ hobbies_interests_input = gr.Textbox(label="Loisirs et intérêts", lines=2, scale=4)
823
+ refine_hobbies_interests_button = gr.Button("💡 Affiner", scale=1, size='sm')
824
+
825
+ with gr.Column():
826
+ gr.Markdown("#### Relation au Produit/Service")
827
+ with gr.Row(equal_height=False):
828
+ technology_relationship_input = gr.Textbox(label="Relation avec la technologie", lines=2, scale=4, info="Ex: early adopter, prudent, technophobe, pragmatique...")
829
+ refine_technology_relationship_button = gr.Button("💡 Affiner", scale=1, size='sm')
830
+ with gr.Row(equal_height=False):
831
+ product_related_activities_input = gr.Textbox(label="Tâches/activités liées à votre produit/service", lines=2, scale=4)
832
+ refine_product_related_activities_button = gr.Button("💡 Affiner", scale=1, size='sm')
833
+ with gr.Row(equal_height=False):
834
+ pain_points_input = gr.Textbox(label="Points de douleur (frustrations, problèmes)", lines=2, scale=4)
835
+ refine_pain_points_button = gr.Button("💡 Affiner", scale=1, size='sm')
836
+ with gr.Row(equal_height=False):
837
+ product_goals_input = gr.Textbox(label="Objectifs en utilisant votre produit/service", lines=2, scale=4)
838
+ refine_product_goals_button = gr.Button("💡 Affiner", scale=1, size='sm')
839
+ with gr.Row(equal_height=False):
840
+ usage_scenarios_input = gr.Textbox(label="Scénarios d'utilisation typiques", lines=2, scale=4)
841
+ refine_usage_scenarios_button = gr.Button("💡 Affiner", scale=1, size='sm')
842
+
843
+ # Ajouter les autres champs de V1 ici si nécessaire (Responsabilités, Journée type, Marketing...) pour un persona complet
844
+ with gr.Accordion("Autres Informations (Optionnel)", open=False):
845
+ with gr.Row():
846
+ with gr.Column():
847
+ gr.Markdown("#### Contexte Professionnel/Vie Quotidienne")
848
+ with gr.Row(equal_height=False):
849
+ main_responsibilities_input = gr.Textbox(label="Responsabilités principales (pro/perso)", lines=2, scale=4)
850
+ refine_main_responsibilities_button = gr.Button("💡 Affiner", scale=1, size='sm')
851
+ with gr.Row(equal_height=False):
852
+ daily_activities_input = gr.Textbox(label="Activités journalières typiques", lines=2, scale=4)
853
+ refine_daily_activities_button = gr.Button("💡 Affiner", scale=1, size='sm')
854
+ with gr.Row(equal_height=False):
855
+ daily_life_input = gr.Textbox(label="Une journée type / Citation marquante", lines=2, scale=4)
856
+ refine_daily_life_button = gr.Button("💡 Affiner", scale=1, size='sm')
857
+
858
+ with gr.Column():
859
+ gr.Markdown("#### Marketing & Considérations Spéciales")
860
+ with gr.Row(equal_height=False):
861
+ brand_relationship_input = gr.Textbox(label="Relation avec la marque", lines=2, scale=4)
862
+ refine_brand_relationship_button = gr.Button("💡 Affiner", scale=1, size='sm')
863
+ with gr.Row(equal_height=False):
864
+ market_segment_input = gr.Textbox(label="Segment de marché", lines=2, scale=4)
865
+ refine_market_segment_button = gr.Button("💡 Affiner", scale=1, size='sm')
866
+ with gr.Row(equal_height=False):
867
+ commercial_objectives_input = gr.Textbox(label="Objectifs commerciaux liés (SMART)", lines=2, scale=4)
868
+ refine_commercial_objectives_button = gr.Button("💡 Affiner", scale=1, size='sm')
869
+ with gr.Row(equal_height=False):
870
+ visual_codes_input = gr.Textbox(label="Codes visuels / Marques préférées", lines=2, scale=4)
871
+ refine_visual_codes_button = gr.Button("💡 Affiner", scale=1, size='sm')
872
+ with gr.Row(equal_height=False):
873
+ special_considerations_input = gr.Textbox(label="Considérations spéciales (accessibilité, culturelles...)", lines=2, scale=4)
874
+ refine_special_considerations_button = gr.Button("💡 Affiner", scale=1, size='sm')
875
+ with gr.Row(equal_height=False):
876
+ references_input = gr.Textbox(label="Références / Sources de données", lines=2, scale=4)
877
+ refine_references_button = gr.Button("💡 Affiner", scale=1, size='sm')
878
+
879
+
880
+ # Fonction intermédiaire pour gérer l'appel de raffinement et l'affichage
881
+ def handle_refinement_request(app_config, fname, lname, age_val, field_name_display, field_val, bias_state, objectives, log_state):
882
+ # Appel de la fonction de raffinement
883
+ updated_log, result = refine_persona_details_v2(app_config, fname, lname, age_val, field_name_display, field_val, bias_state, objectives, log_state)
884
+
885
+ # Afficher le résultat (suggestions ou erreur)
886
+ if result and "ERREUR:" in result:
887
+ # Afficher dans le statut global si c'est une erreur API
888
+ status_update = result
889
+ gr.Warning(f"Erreur lors du raffinement pour '{field_name_display}'. Vérifiez le log.")
890
+ elif result:
891
+ # Afficher les suggestions dans une InfoBox
892
+ gr.Info(f"Suggestions pour '{field_name_display}':\n{result}")
893
+ status_update = "" # Pas d'erreur à afficher globalement
894
+ else:
895
+ # Cas result est None ou vide (ne devrait pas arriver mais au cas où)
896
+ status_update = ""
897
+ gr.Warning(f"Pas de suggestion reçue pour '{field_name_display}'.")
898
+
899
+ return updated_log, status_update
900
+
901
+ # Fonction lambda générique pour appeler le handler de raffinement
902
+ def create_refine_handler(field_name_display, input_component):
903
+ # Le lambda prend les inputs requis par handle_refinement_request
904
+ return lambda app_conf, fname, lname, age_val, field_val, bias_state, objectives, log_state: \
905
+ handle_refinement_request(app_conf, fname, lname, age_val, field_name_display, field_val, bias_state, objectives, log_state)
906
+
907
+ # Lier chaque bouton "Affiner"
908
+ common_inputs_refine = [app_config_state, first_name_input, last_name_input, age_input]
909
+ state_inputs_refine = [bias_analysis_result_state, objective_input, session_log_state]
910
+ # La sortie met à jour le log et potentiellement le message de statut global
911
+ common_outputs_refine = [session_log_state, status_message_state]
912
+
913
+ # Lier tous les boutons
914
+ refine_buttons_map = {
915
+ refine_personality_traits_button: ("Traits de personnalité", personality_traits_input),
916
+ refine_values_beliefs_button: ("Valeurs et croyances", values_beliefs_input),
917
+ refine_motivations_button: ("Motivations", motivations_input),
918
+ refine_hobbies_interests_button: ("Loisirs et intérêts", hobbies_interests_input),
919
+ refine_technology_relationship_button: ("Relation avec la technologie", technology_relationship_input),
920
+ refine_product_related_activities_button: ("Tâches liées au produit", product_related_activities_input),
921
+ refine_pain_points_button: ("Points de douleur", pain_points_input),
922
+ refine_product_goals_button: ("Objectifs produit", product_goals_input),
923
+ refine_usage_scenarios_button: ("Scénarios d'utilisation", usage_scenarios_input),
924
+ refine_main_responsibilities_button: ("Responsabilités principales", main_responsibilities_input),
925
+ refine_daily_activities_button: ("Activités journalières", daily_activities_input),
926
+ refine_daily_life_button: ("Journée type/Citation", daily_life_input),
927
+ refine_brand_relationship_button: ("Relation marque", brand_relationship_input),
928
+ refine_market_segment_button: ("Segment marché", market_segment_input),
929
+ refine_commercial_objectives_button: ("Objectifs commerciaux", commercial_objectives_input),
930
+ refine_visual_codes_button: ("Codes visuels", visual_codes_input),
931
+ refine_special_considerations_button: ("Considérations spéciales", special_considerations_input),
932
+ refine_references_button: ("Références", references_input),
933
+ }
934
+
935
+ for btn, (label, input_comp) in refine_buttons_map.items():
936
+ btn.click(
937
+ fn=create_refine_handler(label, input_comp),
938
+ inputs=common_inputs_refine + [input_comp] + state_inputs_refine,
939
+ outputs=common_outputs_refine
940
+ ).then( # Chaîne pour mettre à jour l'affichage du statut depuis l'état
941
+ fn=lambda status_state, log_state: update_status_display(status_state, log_state),
942
+ inputs=[status_message_state, session_log_state],
943
+ outputs=[status_display, session_log_state]
944
+ )
945
 
946
 
947
  # --- Onglet 4 : Résumé du Persona ---
948
  with gr.Tab("📄 Étape 4: Résumé du Persona", id=3):
949
  gr.Markdown("### 4. Visualisez le persona complet")
950
  summary_button = gr.Button("Générer le Résumé du Persona")
951
+ # Utiliser Markdown pour afficher le HTML du résumé
952
+ summary_content = gr.Markdown(elem_classes="persona-summary", value="Cliquez sur 'Générer' pour voir le résumé.")
953
 
954
+ # Collecter tous les inputs nécessaires pour le résumé DANS LE BON ORDRE pour generate_summary_v2
955
+ all_persona_inputs_for_summary = [
956
+ first_name_input, last_name_input, age_input, gender_input, persona_description_en_input, # Input EN utilisé pour l'image
957
  skin_color_input, eye_color_input, hair_style_input, hair_color_input,
958
  facial_expression_input, posture_input, clothing_style_input, accessories_input,
959
  marital_status_input, education_level_input, profession_input, income_input,
 
962
  product_related_activities_input, pain_points_input, product_goals_input, usage_scenarios_input,
963
  brand_relationship_input, market_segment_input, commercial_objectives_input,
964
  visual_codes_input, special_considerations_input, daily_life_input, references_input,
965
+ # Ajouter les états nécessaires en dernier
966
+ persona_image_pil_state, # Passer l'état contenant l'image PIL
967
  session_log_state
968
  ]
969
 
970
  summary_button.click(
971
+ fn=generate_summary_v2,
972
+ inputs=all_persona_inputs_for_summary,
973
+ outputs=[summary_content, session_log_state] # Met à jour le contenu et le log
974
+ )
975
 
976
  # --- Onglet 5 : Journal de Bord ---
977
  with gr.Tab("📓 Journal de Bord", id=4):
978
  gr.Markdown("### Suivi du Processus de Création")
979
+ gr.Markdown("Ce journal enregistre les étapes clés et les erreurs de votre session.")
980
+ log_display_final = gr.Textbox(label="Historique de la session", lines=20, interactive=False, max_lines=MAX_LOG_LINES)
981
  export_log_button_final = gr.Button("Exporter le Journal en .txt")
982
+ # Utiliser gr.DownloadButton pour une meilleure UX
983
+ # log_file_output = gr.File(label="Télécharger le Journal", file_count="single", visible=False) # Caché initialement
984
+ download_log_button = gr.DownloadButton(label="Télécharger le Journal", visible=False)
985
+
986
 
987
  # Mettre à jour l'affichage du log quand l'état change
988
  session_log_state.change(
989
+ fn=lambda log_data: log_data,
990
+ inputs=session_log_state,
991
+ outputs=log_display_final
992
+ )
993
+
994
+ # Mettre à jour l'affichage global du statut quand l'état change
995
+ status_message_state.change(
996
+ fn=lambda status_msg, log: update_status_display(status_msg, log),
997
+ inputs=[status_message_state, session_log_state],
998
+ outputs=[status_display, session_log_state]
999
  )
1000
 
1001
+ # Fonction pour préparer le fichier log pour le DownloadButton
1002
+ def prepare_log_for_download(log_data):
1003
  if not log_data:
1004
+ return gr.update(visible=False) # Cache le bouton si pas de log
1005
+
1006
+ # Créer un fichier texte temporaire que Gradio peut servir
1007
+ # Utiliser delete=False car Gradio doit pouvoir lire le fichier après le retour de la fonction
1008
+ try:
1009
+ with tempfile.NamedTemporaryFile(mode='w', delete=False, suffix='.txt', encoding='utf-8') as temp_file:
1010
+ temp_file.write(log_data)
1011
+ temp_filepath = temp_file.name
1012
+ print(f"Fichier log prêt pour téléchargement : {temp_filepath}")
1013
+ # Retourner le chemin pour le DownloadButton et le rendre visible
1014
+ # Note: Gradio est censé gérer le nettoyage de ce fichier temporaire.
1015
+ return gr.update(value=temp_filepath, visible=True)
1016
+ except Exception as e:
1017
+ print(f"Erreur création fichier log pour téléchargement: {e}")
1018
+ return gr.update(visible=False) # Cache le bouton en cas d'erreur
1019
 
1020
  export_log_button_final.click(
1021
+ fn=prepare_log_for_download,
1022
  inputs=session_log_state,
1023
+ outputs=download_log_button
1024
  )
1025
 
1026
  # Lancer l'application
1027
+ # Utiliser queue() pour gérer les appels API potentiellement longs
1028
+ # debug=True est utile pour le développement, False en production
1029
+ # share=False est plus sûr par défaut, surtout avec des clés API
1030
+ if not openrouter_api_key:
1031
+ print("\n" + "="*60)
1032
+ print("ERREUR CRITIQUE : Clé API OpenRouter non trouvée.")
1033
+ print("Veuillez définir OPENROUTER_API_KEY dans votre environnement.")
1034
+ print("L'application ne fonctionnera pas correctement sans elle.")
1035
+ print("="*60 + "\n")
1036
+ # On pourrait arrêter ici, mais on lance quand même Gradio pour voir l'interface
1037
+ # et permettre la configuration OpenAI si l'utilisateur le souhaite.
1038
+ # Cependant, l'état initial sera non fonctionnel sans config valide.
1039
+
1040
+ demo.queue().launch(debug=False, share=False)