PersonaGenAI / app.py
Moguiy's picture
Update app.py
adf55b4 verified
raw
history blame
64.4 kB
import gradio as gr
from openai import OpenAI
import openai # Import top-level for error types
from pydantic import BaseModel, Field
import os
import requests
from PIL import Image
import tempfile
import io # For BytesIO
# import numpy as np # Not strictly needed if using PIL
import markdown # Required by gr.Markdown implicitly
import base64
import datetime
import json
import re # For cleaning JSON
from dotenv import load_dotenv
# --- Configuration Initiale ---
load_dotenv() # Charge les variables depuis un fichier .env s'il existe
# Clé OpenRouter (obligatoire pour le fonctionnement de base)
openrouter_api_key = os.getenv("OPENROUTER_API_KEY")
OPENROUTER_TEXT_MODEL = "google/gemini-pro-1.5" # Modèle OpenRouter par défaut
# OPENROUTER_TEXT_MODEL = "google/gemini-flash-1.5" # Alternative plus rapide
# Modèles OpenAI (utilisés si clé fournie)
OPENAI_TEXT_MODEL = "gpt-4o-mini" # ou "gpt-4o"
OPENAI_IMAGE_MODEL = "dall-e-3"
# --- Modèles Pydantic (Inchangé) ---
class BiasInfo(BaseModel):
bias_type: str = Field(..., description="Type de biais identifié (ex: Stéréotype de genre, Biais de confirmation)")
explanation: str = Field(..., description="Explication de pourquoi cela pourrait être un biais dans ce contexte.")
advice: str = Field(..., description="Conseil spécifique pour atténuer ce biais.")
class BiasAnalysisResponse(BaseModel):
detected_biases: list[BiasInfo] = Field(default_factory=list, description="Liste des biais potentiels détectés.")
overall_comment: str = Field(default="", description="Commentaire général ou indication si aucun biais majeur n'est détecté.")
# --- Fonctions Utilitaires (Mises à jour) ---
# Dictionnaires de correspondance (Inchangés)
posture_mapping = {"": "","Debout": "standing up","Assis": "sitting","Allongé": "lying down","Accroupi": "crouching","En mouvement": "moving","Reposé": "resting"}
facial_expression_mapping = {"": "","Souriant": "smiling","Sérieux": "serious","Triste": "sad","En colère": "angry","Surpris": "surprised","Pensif": "thoughtful"}
skin_color_mapping = {"": "","Clair": "light","Moyen": "medium","Foncé": "dark","Très foncé": "very dark"}
eye_color_mapping = {"": "","Bleu": "blue","Vert": "green","Marron": "brown","Gris": "gray"}
hair_style_mapping = {"": "","Court": "short","Long": "long","Bouclé": "curly","Rasé": "shaved","Chauve": "bald","Tresses": "braided","Queue de cheval": "ponytail","Coiffure afro": "afro","Dégradé": "fade"}
hair_color_mapping = {"": "","Blond": "blonde","Brun": "brown","Noir": "black","Roux": "red","Gris": "gray","Blanc": "white"}
clothing_style_mapping = {"": "","Décontracté": "casual","Professionnel": "professional","Sportif": "sporty"}
accessories_mapping = {"": "","Lunettes": "glasses","Montre": "watch","Chapeau": "hat"}
# Fonction de mise à jour du journal (Limitée et formatée)
MAX_LOG_LINES = 150
def update_log(event_description, session_log_state):
"""Ajoute une entrée au log et le retourne, en limitant sa taille."""
timestamp = datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")
new_log_entry = f"[{timestamp}] {event_description}"
current_log = session_log_state if session_log_state else ""
# Limiter la taille du log
log_lines = current_log.splitlines()
# Garde les N dernières lignes
if len(log_lines) >= MAX_LOG_LINES:
current_log = "\n".join(log_lines[-(MAX_LOG_LINES-1):])
updated_log = current_log + "\n" + new_log_entry if current_log else new_log_entry
return updated_log.strip() # Retourne le log mis à jour
def clean_json_response(raw_response):
"""Tente d'extraire un bloc JSON valide d'une réponse LLM potentiellement bruitée."""
# Recherche d'un bloc JSON marqué par ```json ... ```
match = re.search(r"```json\s*({.*?})\s*```", raw_response, re.DOTALL | re.IGNORECASE)
if match:
return match.group(1)
# Recherche d'un objet JSON commençant par { et finissant par }
match = re.search(r"({.*?})", raw_response, re.DOTALL)
if match:
# Essayer de parser pour vérifier si c'est valide
try:
json.loads(match.group(1))
return match.group(1)
except json.JSONDecodeError:
pass # Si ça échoue, on continue
# Si rien ne fonctionne, retourne la réponse brute en espérant qu'elle soit déjà du JSON
return raw_response.strip()
# --- Fonctions Principales de l'Application (Mises à jour) ---
def analyze_biases_v2(app_config, objective_text, session_log_state):
"""Analyse les biais dans l'objectif marketing (utilise le client API actif)."""
log = session_log_state
log = update_log(f"Analyse Biais Objectif (début): '{objective_text[:50]}...'", log)
if not objective_text:
return BiasAnalysisResponse(overall_comment="Veuillez fournir un objectif marketing.").dict(), update_log("Analyse Biais: Objectif vide.", log)
if not app_config.get("client"):
return BiasAnalysisResponse(overall_comment="Erreur: Client API non configuré.").dict(), update_log("ERREUR Analyse Biais: Client non configuré.", log)
active_client = app_config["client"]
model_name = app_config["text_model"]
# Prompt système V2 (Inchangé)
system_prompt = f"""
Tu es un expert en marketing éthique et en psychologie cognitive, spécialisé dans la création de personas.
Analyse l'objectif marketing suivant : "{objective_text}"
Identifie les BIAIS COGNITIFS POTENTIELS ou RISQUES DE STÉRÉOTYPES pertinents pour la création de personas. Concentre-toi sur :
1. **Stéréotypes / Généralisations Hâtives :** Suppose-t-on des traits basés sur le genre, l'âge, l'ethnie, le statut socio-économique sans justification ? (Ex: 'tous les jeunes urbains sont écolos')
2. **Biais de Confirmation / Affinité :** L'objectif semble-t-il chercher à valider une idée préconçue ou refléter trop les opinions du concepteur ? (Ex: 'prouver que notre produit est parfait pour CE type de personne')
3. **Simplification Excessive / Manque de Nuance :** Le groupe cible est-il décrit de manière trop monolithique, ignorant la diversité interne ? (Ex: 'les seniors actifs' sans différencier leurs motivations ou capacités)
4. **Autres biais pertinents** (Ex: Oubli de fréquence de base, Biais de normalité si applicable).
Pour chaque biais potentiel identifié :
- Nomme le type de biais (ex: Stéréotype d'âge).
- Explique brièvement POURQUOI c'est un risque DANS CE CONTEXTE de création de persona.
- Propose un CONSEIL PRÉCIS pour nuancer l'objectif ou être vigilant lors de la création.
Structure ta réponse en utilisant le format JSON suivant (avec la classe Pydantic BiasAnalysisResponse):
{{
"detected_biases": [
{{
"bias_type": "Type de biais identifié",
"explanation": "Explication contextuelle du risque.",
"advice": "Conseil spécifique d'atténuation."
}}
],
"overall_comment": "Bref commentaire général. Indique si aucun biais majeur n'est détecté."
}}
Réponds en français. S'il n'y a pas de biais clair, retourne une liste 'detected_biases' vide et indique-le dans 'overall_comment'.
"""
response_content_str = "" # Init pour le bloc except
try:
completion = active_client.chat.completions.create(
model=model_name,
messages=[
# Note: Certains modèles préfèrent l'objectif dans le message user, d'autres intégré au system prompt.
# Ici, on le met dans le system_prompt.
{"role": "user", "content": system_prompt}
],
temperature=0.4,
max_tokens=800,
# Demander explicitement du JSON si le modèle le supporte bien (OpenAI et certains OpenRouter le font)
response_format={"type": "json_object"},
)
response_content_str = completion.choices[0].message.content
# Nettoyage de la réponse avant parsing
cleaned_response_str = clean_json_response(response_content_str)
# Essayer de parser la réponse JSON nettoyée
parsed_response = BiasAnalysisResponse.parse_raw(cleaned_response_str)
log = update_log(f"Analyse Biais Objectif (fin): Biais trouvés - {len(parsed_response.detected_biases)}", log)
return parsed_response.dict(), log
except openai.AuthenticationError as e:
error_msg = f"Erreur d'authentification API ({app_config.get('api_source', 'Inconnu')}). Vérifiez votre clé."
print(error_msg)
log = update_log(f"ERREUR API Auth: {error_msg}", log)
return BiasAnalysisResponse(overall_comment=error_msg).dict(), log
except openai.RateLimitError as e:
error_msg = f"Erreur API ({app_config.get('api_source', 'Inconnu')}): Limite de taux atteinte. Réessayez plus tard."
print(error_msg)
log = update_log(f"ERREUR API RateLimit: {error_msg}", log)
return BiasAnalysisResponse(overall_comment=error_msg).dict(), log
except Exception as e:
error_msg = f"Erreur pendant l'analyse des biais: {str(e)}. Réponse brute: '{response_content_str[:200]}...'"
print(error_msg)
log = update_log(f"ERREUR Analyse Biais: {str(e)}", log)
# Essayer de retourner une structure d'erreur compatible
return BiasAnalysisResponse(overall_comment=f"Erreur technique lors de l'analyse: {str(e)}").dict(), log
def display_bias_analysis_v2(analysis_result):
"""Formate l'analyse des biais pour l'affichage avec HighlightedText."""
# Prend directement le dict retourné par analyze_biases_v2
if not analysis_result:
return [("Aucune analyse effectuée.", None)], {} # Retourne format HighlightedText et dict vide
biases = analysis_result.get("detected_biases", [])
overall_comment = analysis_result.get("overall_comment", "")
highlighted_data = []
if "Erreur" in overall_comment:
highlighted_data.append((overall_comment, "ERROR")) # Étiquette spécifique pour erreurs
elif not biases:
highlighted_data.append((overall_comment or "Aucun biais majeur détecté.", "INFO"))
else:
if overall_comment:
highlighted_data.append((overall_comment + "\n\n", "COMMENT"))
for bias_info in biases:
highlighted_data.append((f"⚠️ {bias_info.get('bias_type', 'Type inconnu')}: ", "BIAS_TYPE"))
highlighted_data.append((f"{bias_info.get('explanation', 'Pas d’explication.')}\n", "EXPLANATION"))
highlighted_data.append((f"💡 Conseil: {bias_info.get('advice', 'Pas de conseil.')}\n", "ADVICE"))
# Retourne les données formatées et le résultat brut (qui est déjà un dict)
# Le second output (bias_analysis_result_state) est mis à jour par la fonction appelante si nécessaire
return highlighted_data
def generate_persona_image_v2(app_config, *args):
"""Génère l'image du persona en utilisant OpenAI si activé, sinon retourne None."""
# Les 13 premiers args sont les inputs de l'image, le dernier est session_log_state
inputs = args[:-1]
session_log_state = args[-1]
log = session_log_state
(first_name, last_name, age, gender, persona_description_en, # Renommé pour clarté
skin_color, eye_color, hair_style, hair_color, facial_expression,
posture, clothing_style, accessories) = inputs
# Vérifier si la génération d'image est activée (nécessite clé OpenAI valide)
if not app_config.get("image_generation_enabled", False):
log = update_log("Génération Image: Désactivée (Clé API OpenAI non fournie/valide).", log)
# Retourne None pour l'image et le log mis à jour.
# On ajoute aussi un message utilisateur via gr.Info dans le .click
return None, log, "Génération d'image désactivée. Veuillez fournir une clé API OpenAI valide dans l'onglet Configuration."
# Vérifier les champs obligatoires
if not first_name or not last_name or not age or not gender:
# Ne pas générer si infos de base manquantes
# Le message utilisateur sera géré dans le .click via gr.Info
return None, log, "Veuillez remplir Prénom, Nom, Âge et Genre pour générer l'image."
# Construire le prompt en anglais
# Base
prompt_parts = [f"one person only, close-up portrait photo of {first_name} {last_name}, a {gender} aged {age}."] # Préciser "photo", "portrait"
# Détails (utilise les mappings pour traduire les choix FR en termes EN)
if skin_color_mapping.get(skin_color): prompt_parts.append(f"Skin tone: {skin_color_mapping[skin_color]}.")
if eye_color_mapping.get(eye_color): prompt_parts.append(f"Eye color: {eye_color_mapping[eye_color]}.")
if hair_style_mapping.get(hair_style): prompt_parts.append(f"Hairstyle: {hair_style_mapping[hair_style]}.")
if hair_color_mapping.get(hair_color): prompt_parts.append(f"Hair color: {hair_color_mapping[hair_color]}.")
if facial_expression_mapping.get(facial_expression): prompt_parts.append(f"Facial expression: {facial_expression_mapping[facial_expression]}.")
if posture_mapping.get(posture): prompt_parts.append(f"Posture: {posture_mapping[posture]}.")
if clothing_style_mapping.get(clothing_style): prompt_parts.append(f"Clothing style: {clothing_style_mapping[clothing_style]}.")
if accessories_mapping.get(accessories): prompt_parts.append(f"Wearing: {accessories_mapping[accessories]}.") # "Wearing" est souvent mieux pour les accessoires
if persona_description_en: prompt_parts.append(f"Background or context: {persona_description_en}.")
# Style final
prompt_parts.append("Realistic photo style, high detail, natural lighting.")
final_prompt = " ".join(prompt_parts)
log = update_log(f"Génération Image (début): Prompt='{final_prompt[:100]}...'", log)
# Utiliser le client OpenAI (car image_generation_enabled est True)
openai_client = app_config.get("client") # Devrait être le client OpenAI ici
if not isinstance(openai_client, OpenAI) or app_config.get("api_source") != "openai":
error_msg = "Erreur interne: Tentative de génération d'image sans client OpenAI valide."
log = update_log(f"ERREUR Génération Image: {error_msg}", log)
return None, log, error_msg
try:
response = openai_client.images.generate(
model=OPENAI_IMAGE_MODEL,
prompt=final_prompt,
size="1024x1024",
n=1,
response_format="url", # Ou "b64_json"
quality="standard", # ou "hd"
style="natural" # ou "vivid"
)
# Traitement de la réponse (URL ou B64)
image_url = response.data[0].url
# Alternative si b64_json:
# img_b64 = response.data[0].b64_json
# img_bytes = base64.b64decode(img_b64)
# pil_image = Image.open(io.BytesIO(img_bytes))
# Télécharger l'image depuis l'URL
img_response = requests.get(image_url)
img_response.raise_for_status() # Vérifie les erreurs HTTP
# Ouvrir l'image avec PIL depuis les bytes téléchargés
pil_image = Image.open(io.BytesIO(img_response.content))
log = update_log("Génération Image (fin): Succès.", log)
# Retourne l'objet PIL Image, le log, et None pour le message d'erreur
return pil_image, log, None
except openai.AuthenticationError as e:
error_msg = f"Erreur d'authentification API OpenAI. Vérifiez votre clé."
print(error_msg)
log = update_log(f"ERREUR API Auth (Image): {error_msg}", log)
return None, log, error_msg # Retourne None pour l'image, log, et message d'erreur
except openai.RateLimitError as e:
error_msg = f"Erreur API OpenAI (Image): Limite de taux atteinte. Réessayez plus tard."
print(error_msg)
log = update_log(f"ERREUR API RateLimit (Image): {error_msg}", log)
return None, log, error_msg
except openai.BadRequestError as e: # Erreur fréquente si le prompt est refusé
error_msg = f"Erreur API OpenAI (Image): Requête invalide (prompt refusé ?). Détails: {e}"
print(error_msg)
log = update_log(f"ERREUR API BadRequest (Image): {error_msg}", log)
return None, log, error_msg
except Exception as e:
error_msg = f"Erreur lors de la génération de l'image: {str(e)}"
print(error_msg)
log = update_log(f"ERREUR Génération Image: {str(e)}", log)
return None, log, error_msg
def refine_persona_details_v2(app_config, first_name, last_name, age, field_name, field_value, bias_analysis_json_str, marketing_objectives, session_log_state):
"""Affine les détails du persona (utilise le client API actif)."""
log = session_log_state
log = update_log(f"Refinement (début): Champ='{field_name}', Valeur initiale='{field_value[:50]}...'", log)
# Vérifier le client API
if not app_config.get("client"):
error_msg = "Erreur: Client API non configuré pour le raffinement."
log = update_log(f"ERREUR Refinement: Client non configuré.", log)
# Retourner le log et le message d'erreur pour affichage
return log, error_msg
active_client = app_config["client"]
model_name = app_config["text_model"]
# Essayer de récupérer les biais détectés précédemment
biases_text = "Aucune analyse de biais précédente disponible ou chargée."
if bias_analysis_json_str: # C'est maintenant un dict, pas une str JSON
try:
# bias_analysis_data = json.loads(bias_analysis_json_str) # Plus nécessaire si c'est un dict
detected_biases = bias_analysis_json_str.get("detected_biases", [])
if detected_biases:
biases_text = "\n".join([f"- {b.get('bias_type','N/A')}: {b.get('explanation','N/A')}" for b in detected_biases])
else:
biases_text = "Aucun biais majeur détecté lors de l'analyse initiale."
except Exception as e:
biases_text = f"Erreur lors de la lecture des biais analysés: {e}"
log = update_log(f"ERREUR Lecture Biais pour Refinement: {e}", log)
# Prompt système
system_prompt = f"""
Tu es un assistant IA expert en marketing éthique, aidant à affiner le persona marketing pour '{first_name} {last_name}' ({age} ans).
L'objectif marketing initial était : "{marketing_objectives}"
L'analyse initiale de cet objectif a soulevé les biais potentiels suivants :
{biases_text}
Tâche: Concentre-toi UNIQUEMENT sur le champ '{field_name}' dont la valeur actuelle est '{field_value}'.
Propose 1 à 2 suggestions CONCISES et ACTIONNABLES pour améliorer, nuancer ou enrichir cette valeur.
Tes suggestions doivent viser à :
- Rendre le persona plus réaliste et moins cliché.
- ATTÉNUER spécifiquement les biais potentiels listés ci-dessus s'ils sont pertinents pour ce champ.
- Rester cohérent avec l'objectif marketing général.
- Éviter les généralisations excessives.
Si la valeur actuelle semble bonne ou si tu manques de contexte pour faire une suggestion pertinente, indique-le simplement (ex: "La valeur actuelle semble appropriée." ou "Difficile de suggérer sans plus de contexte.").
Réponds en français. Ne fournis QUE les suggestions ou le commentaire d'approbation/manque de contexte. Ne répète pas la question.
"""
suggestions = "" # Init pour le bloc except
try:
response = active_client.chat.completions.create(
model=model_name,
messages=[{"role": "user", "content": system_prompt}],
temperature=0.6, # Un peu plus de créativité pour les suggestions
max_tokens=150,
)
suggestions = response.choices[0].message.content.strip()
log = update_log(f"Refinement (fin): Champ='{field_name}'. Suggestions: '{suggestions[:50]}...'", log)
# Retourne le log mis à jour et les suggestions (ou None si erreur)
return log, suggestions
except openai.AuthenticationError as e:
error_msg = f"Erreur d'authentification API ({app_config.get('api_source', 'Inconnu')}) pendant raffinement. Vérifiez votre clé."
print(error_msg)
log = update_log(f"ERREUR API Auth (Refine): {error_msg}", log)
return log, f"ERREUR: {error_msg}" # Retourne message d'erreur pour affichage
except openai.RateLimitError as e:
error_msg = f"Erreur API ({app_config.get('api_source', 'Inconnu')}) (Refine): Limite de taux atteinte."
print(error_msg)
log = update_log(f"ERREUR API RateLimit (Refine): {error_msg}", log)
return log, f"ERREUR: {error_msg}"
except Exception as e:
error_msg = f"Erreur lors du raffinement pour '{field_name}': {str(e)}"
print(error_msg)
log = update_log(f"ERREUR Refinement '{field_name}': {str(e)}", log)
return log, f"ERREUR: {error_msg}"
def generate_summary_v2(*args):
"""Génère le résumé HTML du persona (gestion image PIL)."""
# Le dernier arg est session_log_state, l'avant-dernier est persona_image (PIL ou None)
inputs = args[:-2] # Tous les champs textuels/numériques/dropdowns
persona_image_pil = args[-2] # Peut être None ou un objet PIL Image
session_log_state = args[-1]
log = session_log_state
# Extrait tous les champs (assurez-vous que l'ordre correspond à all_persona_inputs_for_summary)
(first_name, last_name, age, gender, persona_description_en, # Utiliser la version EN pour le contexte image
skin_color, eye_color, hair_style, hair_color, facial_expression,
posture, clothing_style, accessories,
marital_status, education_level, profession, income,
personality_traits, values_beliefs, motivations, hobbies_interests,
main_responsibilities, daily_activities, technology_relationship,
product_related_activities, pain_points, product_goals, usage_scenarios,
brand_relationship, market_segment, commercial_objectives,
visual_codes, special_considerations, daily_life, references
) = inputs
log = update_log(f"Génération Résumé: Pour '{first_name} {last_name}'.", log)
summary = ""
image_html = "<div style='flex: 0 0 320px; margin-left: 20px; text-align: center;'>\n" # Div pour l'image
if not first_name or not last_name or not age:
summary += "<h2>Informations de base manquantes</h2>\n"
summary += "<p><i>Veuillez fournir au moins le prénom, le nom et l'âge (Étape 2).</i></p>\n"
image_html += "<p>Image non générée.</p>\n"
else:
# Intégrer l'image si elle existe (objet PIL)
if persona_image_pil and isinstance(persona_image_pil, Image.Image):
try:
# Convertir l'image PIL en base64 pour l'intégrer directement
buffered = io.BytesIO()
# Sauvegarder en PNG (ou JPEG si préféré) dans le buffer mémoire
persona_image_pil.save(buffered, format="PNG")
img_bytes = buffered.getvalue()
img_base64 = base64.b64encode(img_bytes).decode()
img_data_url = f"data:image/png;base64,{img_base64}"
image_html += f"<img src='{img_data_url}' alt='Persona {first_name}' style='max-width: 300px; height: auto; border: 1px solid #eee; border-radius: 5px; margin-top: 10px;'/>\n"
except Exception as e:
img_err_msg = f"Erreur encodage image: {e}"
image_html += f"<p><i>{img_err_msg}</i></p>\n"
log = update_log(f"ERREUR Encodage Image Résumé: {e}", log)
else:
image_html += "<p><i>Aucune image générée ou disponible.</i></p>\n"
# Section Informations Personnelles (Titre centré)
summary += f"<div style='text-align: center;'><h1>{first_name} {last_name}, {age} ans ({gender})</h1></div>\n"
# Utiliser persona_description_en ici car c'est ce qui a été utilisé pour l'image, ou ajouter un champ description générale FR ?
# Pour l'instant, on affiche pas la desc EN dans le résumé FR. Ajoutons un champ 'description_persona_fr' ?
# Solution simple: ne pas afficher de description ici ou ajouter un nouveau champ.
# summary += f"<p><i>{persona_description_en}</i></p>\n" # Commenté
# Assemblage des autres sections (avec vérification si champ rempli)
def add_section(title, fields):
content = ""
for label, value in fields.items():
# N'ajoute que si la valeur existe (n'est pas None, False, 0, ou chaîne vide)
if value:
# Formatage spécial pour les revenus
if label == "Revenus annuels (€)" and isinstance(value, (int, float)):
# Format numérique avec séparateur de milliers (espace)
try:
value_str = f"{int(value):,} €".replace(",", " ")
except ValueError: # Gère le cas où income serait une chaîne ou autre chose
value_str = str(value) + " €"
else:
value_str = str(value)
# Remplace les sauts de ligne par <br> pour l'affichage HTML
value_str_html = value_str.replace("\n", "<br>")
content += f"<b>{label}:</b> {value_str_html}<br>\n"
if content:
# Ajoute un peu d'espace avant la section
return f"<h3 style='margin-top: 15px; margin-bottom: 5px; border-bottom: 1px solid #eee; padding-bottom: 2px;'>{title}</h3>\n{content}\n"
return ""
# Construire le résumé par sections
summary += add_section("Infos Socio-Démographiques", {
"État civil": marital_status, "Niveau d'éducation": education_level,
"Profession": profession, "Revenus annuels (€)": income
})
summary += add_section("Psychographie", {
"Traits de personnalité": personality_traits, "Valeurs et croyances": values_beliefs,
"Motivations intrinsèques": motivations, "Hobbies et intérêts": hobbies_interests
})
summary += add_section("Relation au Produit/Service", {
"Relation avec la technologie": technology_relationship,
"Tâches liées au produit/service": product_related_activities,
"Points de douleur (Pain points)": pain_points,
"Objectifs d’utilisation du produit/service": product_goals,
"Scénarios d’utilisation typiques": usage_scenarios
})
summary += add_section("Contexte Professionnel/Vie Quotidienne", {
"Responsabilités principales": main_responsibilities,
"Activités journalières": daily_activities,
"Une journée type / Citation": daily_life # Renommé pour correspondre au label
})
summary += add_section("Marketing & Considérations Spéciales", {
"Relation avec la marque": brand_relationship,
"Segment de marché": market_segment,
"Objectifs commerciaux (SMART)": commercial_objectives,
"Codes visuels / Marques préférées": visual_codes,
"Considérations spéciales (accessibilité, culture...)": special_considerations,
"Références / Sources de données": references
})
image_html += "</div>\n" # Ferme div image
# Assemblage final avec flexbox pour mettre le texte et l'image côte à côte
final_html = "<div style='display: flex; flex-wrap: wrap; align-items: flex-start; font-family: sans-serif; padding: 10px;'>\n"
final_html += f"<div style='flex: 1; min-width: 350px; padding-right: 15px;'>\n{summary}</div>\n" # Colonne texte
final_html += image_html # Colonne image
final_html += "</div>"
# Retourne le HTML généré et le log mis à jour
return final_html, log
# --- Interface Gradio V2 (Mise à jour avec BYOK et suggestions) ---
with gr.Blocks(theme=gr.themes.Glass()) as demo:
gr.Markdown("# PersonaGenAI V2 : Assistant de Création de Persona Marketing")
gr.Markdown("Outil d'aide à la création de personas, intégrant l'IA générative (OpenRouter ou OpenAI) pour stimuler la créativité et la réflexivité face aux biais.")
# --- État Global Partagé ---
# Stocke la configuration active (client API, modèles, flags)
app_config_state = gr.State(value={
"client": None,
"api_source": None, # 'openai' or 'openrouter'
"text_model": None,
"image_generation_enabled": False,
"openai_key_provided": False,
"openrouter_key_provided": bool(openrouter_api_key)
})
# Stocke le résultat de l'analyse de biais (maintenant un dict)
bias_analysis_result_state = gr.State(value={})
# Stocke l'image générée (objet PIL ou None)
persona_image_pil_state = gr.State(value=None)
# Stocke le log de session (chaîne de caractères)
session_log_state = gr.State(value="")
# Pour afficher les messages d'erreur/status globaux
status_message_state = gr.State(value="")
# --- Affichage Global du Statut/Erreur ---
status_display = gr.Markdown(value="", elem_classes="status-message") # Pour afficher les messages d'erreur/info
# Fonction pour mettre à jour le message de statut
def update_status_display(new_message, current_log):
# Met aussi à jour le log si un message est affiché
if new_message:
current_log = update_log(f"STATUS: {new_message}", current_log)
return new_message, current_log
# --- Onglets ---
with gr.Tabs() as tabs:
# --- Onglet 0 : Configuration API (BYOK) ---
with gr.Tab("🔑 Configuration API", id=-1):
gr.Markdown("### Configuration des Clés API")
gr.Markdown("Cette application utilise une IA pour analyser et générer du contenu. Choisissez votre fournisseur d'API.")
# Statut de la clé OpenRouter (obligatoire pour le mode de base)
if openrouter_api_key:
gr.Markdown("✅ Clé API **OpenRouter** trouvée dans l'environnement (`OPENROUTER_API_KEY`).")
else:
gr.Markdown("❌ **Clé API OpenRouter (`OPENROUTER_API_KEY`) non trouvée.** L'application ne pourra pas fonctionner sans cette clé. Veuillez la définir dans vos variables d'environnement ou un fichier `.env`.")
# Champ pour la clé OpenAI (optionnelle)
openai_api_key_input = gr.Textbox(
label="Clé API OpenAI (Optionnelle)",
type="password",
placeholder="Entrez votre clé OpenAI ici pour activer DALL-E 3 et utiliser OpenAI pour le texte",
info="Si fournie, cette clé sera utilisée pour la génération d'images (DALL-E 3) ET pour l'analyse/raffinement de texte (GPT). Sinon, OpenRouter sera utilisé pour le texte et la génération d'images sera désactivée."
)
# Bouton pour appliquer la config (initialise les clients)
configure_api_button = gr.Button("Appliquer la Configuration API")
# Affichage du statut de la configuration active
api_status_display = gr.Markdown("Statut API: Non configuré.")
# Fonction de configuration des clients API
def configure_api_clients(openai_key, current_config, current_log):
openai_key_provided = bool(openai_key)
openrouter_key_available = current_config["openrouter_key_provided"]
status_msg = ""
config = current_config.copy() # Copie pour modification
client = None
api_source = None
text_model = None
image_enabled = False
# Priorité à OpenAI si clé fournie
if openai_key_provided:
try:
client = OpenAI(api_key=openai_key)
# Faire un petit appel test (optionnel mais recommandé)
# client.models.list() # Peut coûter un peu
api_source = "openai"
text_model = OPENAI_TEXT_MODEL
image_enabled = True
status_msg = f"✅ Configuration **OpenAI** active (Modèle texte: `{text_model}`, Images: DALL-E 3 activé)."
config["openai_key_provided"] = True
except Exception as e:
status_msg = f"⚠️ Clé OpenAI fournie mais invalide ou problème de connexion: {e}. Basculement vers OpenRouter si possible."
log_msg = f"ERREUR API Config OpenAI: {e}"
current_log = update_log(log_msg, current_log)
print(log_msg)
# Reset OpenAI specific flags
config["openai_key_provided"] = False
openai_key_provided = False # Force fallback if error
# Fallback vers OpenRouter si clé OpenAI non fournie ou invalide, ET si clé OpenRouter existe
if not openai_key_provided:
if openrouter_key_available:
try:
client = OpenAI(
base_url="https://openrouter.ai/api/v1",
api_key=openrouter_api_key,
)
api_source = "openrouter"
text_model = OPENROUTER_TEXT_MODEL
image_enabled = False # Image désactivée avec OpenRouter dans cette config
status_msg = f"✅ Configuration **OpenRouter** active (Modèle texte: `{text_model}`, Images: Désactivé)."
except Exception as e:
status_msg = f"❌ Erreur lors de l'initialisation d'OpenRouter: {e}. L'application risque de ne pas fonctionner."
log_msg = f"ERREUR API Config OpenRouter: {e}"
current_log = update_log(log_msg, current_log)
print(log_msg)
client = None # Assure que le client est None
else:
status_msg = "❌ Aucune clé API valide (OpenAI ou OpenRouter) n'est configurée. L'application ne peut pas fonctionner."
client = None # Assure que le client est None
# Mettre à jour l'état global
config["client"] = client
config["api_source"] = api_source
config["text_model"] = text_model
config["image_generation_enabled"] = image_enabled
log_msg = f"Configuration API appliquée. Source: {api_source or 'Aucune'}, Images: {'Actif' if image_enabled else 'Inactif'}."
current_log = update_log(log_msg, current_log)
# Retourne la nouvelle config, le message de statut, le log mis à jour,
# et l'état interactif du bouton de génération d'image
return config, status_msg, current_log, gr.update(interactive=image_enabled)
# Lier le bouton de configuration
# La sortie met à jour : l'état de config, le markdown de statut, l'état du log,
# et l'interactivité du bouton de génération d'image (qui est dans un autre onglet)
# On a besoin de référencer le bouton de génération d'image ici. Il faut le définir avant.
# Solution : On va plutôt mettre à jour l'état `app_config_state`, et le bouton d'image
# lira cet état quand il sera cliqué. La désactivation visuelle se fera via un .change() sur l'état.
configure_api_button.click(
fn=configure_api_clients,
inputs=[openai_api_key_input, app_config_state, session_log_state],
outputs=[app_config_state, api_status_display, session_log_state]
# L'interactivité du bouton image sera gérée séparément via un .change()
)
# --- Onglet 1 : Objectif & Analyse Biais ---
with gr.Tab("🎯 Étape 1: Objectif & Analyse Biais", id=0):
gr.Markdown("### 1. Définissez votre objectif marketing")
gr.Markdown("Décrivez pourquoi vous créez ce persona. L'IA analysera votre objectif pour identifier des biais cognitifs potentiels.")
with gr.Row():
objective_input = gr.Textbox(label="Objectif marketing pour ce persona", lines=4, scale=3)
with gr.Column(scale=1):
gr.Markdown("<small>Suggestions d'objectifs :</small>")
suggestion_button1 = gr.Button("Exemple 1 : Service Écologique Urbain", size="sm")
suggestion_button2 = gr.Button("Exemple 2 : App Fitness Seniors", size="sm")
analyze_button = gr.Button("🔍 Analyser l'Objectif pour Biais")
gr.Markdown("---")
gr.Markdown("### Analyse des Biais Potentiels")
bias_analysis_output_highlighted = gr.HighlightedText(
label="Biais détectés et Conseils",
show_legend=True,
color_map={"BIAS_TYPE": "red", "EXPLANATION": "gray", "ADVICE": "green", "INFO": "blue", "COMMENT": "orange", "ERROR": "darkred"} # Ajout ERROR
)
gr.Markdown("---")
gr.Markdown("### 🤔 Réflexion")
user_reflection_on_biases = gr.Textbox(
label="Comment comptez-vous utiliser cette analyse pour la suite ?",
lines=2,
placeholder="Ex: Je vais veiller à ne pas tomber dans le stéréotype X, je vais chercher des données pour nuancer Y..."
)
log_reflection_button = gr.Button("📝 Enregistrer la réflexion", size='sm')
# Logique de l'onglet 1
suggestion1_text = "Je souhaite créer un persona pour promouvoir un nouveau service de livraison écologique destiné aux jeunes professionnels urbains soucieux de l'environnement (25-35 ans). Il doit incarner ces valeurs et besoins identifiés lors de notre étude préalable."
suggestion2_text = "Développer une application mobile de fitness personnalisée pour les seniors actifs (+65 ans) cherchant à maintenir une vie saine et sociale. Le persona doit refléter leurs besoins (facilité, convivialité) et préférences."
suggestion_button1.click(lambda: suggestion1_text, outputs=objective_input)
suggestion_button2.click(lambda: suggestion2_text, outputs=objective_input)
# Action du bouton Analyser
analyze_button.click(
fn=analyze_biases_v2,
inputs=[app_config_state, objective_input, session_log_state],
outputs=[bias_analysis_result_state, session_log_state] # Stocke le dict résultat + maj log
).then(
fn=display_bias_analysis_v2,
inputs=bias_analysis_result_state, # Utilise le résultat stocké (dict)
outputs=bias_analysis_output_highlighted # Affiche formaté
).then(
# Met à jour le statut global si l'analyse a retourné une erreur
fn=lambda result, log: update_status_display(result.get("overall_comment", "") if "Erreur" in result.get("overall_comment", "") else "", log),
inputs=[bias_analysis_result_state, session_log_state],
outputs=[status_display, session_log_state]
)
# Action du bouton Enregistrer Réflexion
def log_user_reflection(reflection_text, log_state):
log = update_log(f"Réflexion Utilisateur (Étape 1): '{reflection_text}'", log_state)
return log
log_reflection_button.click(
fn=log_user_reflection,
inputs=[user_reflection_on_biases, session_log_state],
outputs=[session_log_state]
)
# --- Onglet 2 : Image & Infos Base ---
with gr.Tab("👤 Étape 2: Image & Infos Base", id=1):
gr.Markdown("### 2. Créez l'identité visuelle et les informations de base")
with gr.Row():
with gr.Column(scale=1.4): # Colonne de gauche pour les inputs
first_name_input = gr.Textbox(label="Prénom")
last_name_input = gr.Textbox(label="Nom")
age_input = gr.Slider(label="Âge", minimum=18, maximum=100, step=1, value=30)
gender_input = gr.Radio(label="Genre", choices=["Homme", "Femme", "Non-binaire"], value="Homme")
persona_description_en_input = gr.Textbox(label="Contexte/Activité pour l'image (optionnel, en anglais)", lines=1, info="Ex: 'reading a book in a cozy cafe', 'working on a laptop in a modern office', 'hiking on a sunny day'")
with gr.Accordion("🎨 Détails Visuels (Optionnel)", open=False):
with gr.Row():
skin_color_input = gr.Dropdown(label="Teint", choices=list(skin_color_mapping.keys()), value="")
eye_color_input = gr.Dropdown(label="Yeux", choices=list(eye_color_mapping.keys()), value="")
with gr.Row():
hair_style_input = gr.Dropdown(label="Coiffure", choices=list(hair_style_mapping.keys()), value="")
hair_color_input = gr.Dropdown(label="Cheveux", choices=list(hair_color_mapping.keys()), value="")
with gr.Row():
facial_expression_input = gr.Dropdown(label="Expression", choices=list(facial_expression_mapping.keys()), value="")
posture_input = gr.Dropdown(label="Posture", choices=list(posture_mapping.keys()), value="")
with gr.Row():
clothing_style_input = gr.Dropdown(label="Style Vêtements", choices=list(clothing_style_mapping.keys()), value="")
accessories_input = gr.Dropdown(label="Accessoires", choices=list(accessories_mapping.keys()), value="")
reset_visuals_button = gr.Button("Réinitialiser Détails Visuels", size="sm")
with gr.Column(scale=1): # Colonne de droite pour l'image et le bouton
# Utiliser type="pil" pour gérer l'image en mémoire
persona_image_output = gr.Image(label="Image du Persona", type="pil", height=400, interactive=False) # Non éditable par l'utilisateur
# Ce bouton sera activé/désactivé par la config API
generate_image_button = gr.Button("🖼️ Générer / Mettre à jour l'Image")
gr.Markdown("<small>💡 **Attention :** Les IA génératrices d'images peuvent reproduire des stéréotypes. Utilisez les détails visuels avec discernement pour créer une représentation nuancée et inclusive. La génération d'image nécessite une clé API OpenAI valide (voir onglet Configuration).</small>", elem_classes="warning")
# Logique de l'onglet 2
visual_inputs = [
skin_color_input, eye_color_input, hair_style_input, hair_color_input,
facial_expression_input, posture_input, clothing_style_input, accessories_input
]
reset_visuals_button.click(lambda: [""] * len(visual_inputs), outputs=visual_inputs)
# Action du bouton Générer Image
# Définit une fonction intermédiaire pour gérer les sorties multiples et les messages
def handle_image_generation(*args):
# Le dernier input est app_config_state, l'avant-dernier est log_state
# Les autres sont les champs du persona
app_config = args[0]
log_state = args[-1]
persona_inputs = args[1:-1] # first_name, last_name, etc.
pil_image, updated_log, error_message = generate_persona_image_v2(app_config, *persona_inputs, log_state)
# Préparer les mises à jour des composants
status_update = error_message if error_message else "" # Message pour le statut global
# Si infos manquantes (retournées par generate_persona.. comme error_message)
if "Veuillez remplir" in (error_message or ""):
gr.Info(error_message) # Affiche un popup Gradio Info
status_update = "" # Ne pas mettre dans le statut global
# Si génération désactivée (aussi retourné comme error_message)
if "Génération d'image désactivée" in (error_message or ""):
gr.Info(error_message) # Affiche popup
status_update = "" # Ne pas mettre dans le statut global
return pil_image, updated_log, status_update
generate_image_button.click(
fn=handle_image_generation,
inputs=[app_config_state] + [ # Passer l'état de config en premier
first_name_input, last_name_input, age_input, gender_input, persona_description_en_input,
skin_color_input, eye_color_input, hair_style_input, hair_color_input,
facial_expression_input, posture_input, clothing_style_input, accessories_input,
session_log_state # Passer l'état du log en dernier
],
outputs=[
persona_image_pil_state, # Met à jour l'état de l'image (PIL ou None)
session_log_state, # Met à jour l'état du log
status_message_state # Met à jour l'état du message (pour affichage global)
]
).then( # Chaîne pour mettre à jour l'affichage de l'image depuis l'état
fn=lambda img_state: img_state,
inputs=persona_image_pil_state,
outputs=persona_image_output
).then( # Chaîne pour mettre à jour l'affichage du statut depuis l'état
fn=lambda status_state, log_state: update_status_display(status_state, log_state),
inputs=[status_message_state, session_log_state],
outputs=[status_display, session_log_state]
)
# Mettre à jour l'interactivité du bouton quand la config API change
app_config_state.change(
fn=lambda config: gr.update(interactive=config.get("image_generation_enabled", False)),
inputs=app_config_state,
outputs=generate_image_button
)
# --- Onglet 3 : Profil Détaillé & Raffinement IA ---
with gr.Tab("📝 Étape 3: Profil Détaillé & Raffinement IA", id=2):
gr.Markdown("### 3. Complétez les détails du persona")
gr.Markdown("Remplissez les champs suivants. Utilisez le bouton '💡 Affiner' pour obtenir des suggestions de l'IA visant à améliorer le champ spécifique, en tenant compte de votre objectif initial et des biais potentiels identifiés.")
# Organiser en sections pour plus de clarté
with gr.Row():
with gr.Column():
gr.Markdown("#### Infos Socio-Démographiques")
marital_status_input = gr.Dropdown(label="État civil", choices=["", "Célibataire", "En couple", "Marié(e)", "Divorcé(e)", "Veuf(ve)"])
education_level_input = gr.Dropdown(label="Niveau d'éducation", choices=["", "Études secondaires", "Baccalauréat", "Licence", "Master", "Doctorat", "Autre"])
profession_input = gr.Textbox(label="Profession")
income_input = gr.Number(label="Revenus annuels (€)", minimum=0, step=1000)
gr.Markdown("#### Psychographie")
with gr.Row(equal_height=False):
personality_traits_input = gr.Textbox(label="Traits de personnalité", lines=2, scale=4)
refine_personality_traits_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
values_beliefs_input = gr.Textbox(label="Valeurs et croyances", lines=2, scale=4)
refine_values_beliefs_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
motivations_input = gr.Textbox(label="Motivations (objectifs, désirs)", lines=2, scale=4)
refine_motivations_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
hobbies_interests_input = gr.Textbox(label="Loisirs et intérêts", lines=2, scale=4)
refine_hobbies_interests_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Column():
gr.Markdown("#### Relation au Produit/Service")
with gr.Row(equal_height=False):
technology_relationship_input = gr.Textbox(label="Relation avec la technologie", lines=2, scale=4, info="Ex: early adopter, prudent, technophobe, pragmatique...")
refine_technology_relationship_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
product_related_activities_input = gr.Textbox(label="Tâches/activités liées à votre produit/service", lines=2, scale=4)
refine_product_related_activities_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
pain_points_input = gr.Textbox(label="Points de douleur (frustrations, problèmes)", lines=2, scale=4)
refine_pain_points_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
product_goals_input = gr.Textbox(label="Objectifs en utilisant votre produit/service", lines=2, scale=4)
refine_product_goals_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
usage_scenarios_input = gr.Textbox(label="Scénarios d'utilisation typiques", lines=2, scale=4)
refine_usage_scenarios_button = gr.Button("💡 Affiner", scale=1, size='sm')
# Ajouter les autres champs de V1 ici si nécessaire (Responsabilités, Journée type, Marketing...) pour un persona complet
with gr.Accordion("Autres Informations (Optionnel)", open=False):
with gr.Row():
with gr.Column():
gr.Markdown("#### Contexte Professionnel/Vie Quotidienne")
with gr.Row(equal_height=False):
main_responsibilities_input = gr.Textbox(label="Responsabilités principales (pro/perso)", lines=2, scale=4)
refine_main_responsibilities_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
daily_activities_input = gr.Textbox(label="Activités journalières typiques", lines=2, scale=4)
refine_daily_activities_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
daily_life_input = gr.Textbox(label="Une journée type / Citation marquante", lines=2, scale=4)
refine_daily_life_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Column():
gr.Markdown("#### Marketing & Considérations Spéciales")
with gr.Row(equal_height=False):
brand_relationship_input = gr.Textbox(label="Relation avec la marque", lines=2, scale=4)
refine_brand_relationship_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
market_segment_input = gr.Textbox(label="Segment de marché", lines=2, scale=4)
refine_market_segment_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
commercial_objectives_input = gr.Textbox(label="Objectifs commerciaux liés (SMART)", lines=2, scale=4)
refine_commercial_objectives_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
visual_codes_input = gr.Textbox(label="Codes visuels / Marques préférées", lines=2, scale=4)
refine_visual_codes_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
special_considerations_input = gr.Textbox(label="Considérations spéciales (accessibilité, culturelles...)", lines=2, scale=4)
refine_special_considerations_button = gr.Button("💡 Affiner", scale=1, size='sm')
with gr.Row(equal_height=False):
references_input = gr.Textbox(label="Références / Sources de données", lines=2, scale=4)
refine_references_button = gr.Button("💡 Affiner", scale=1, size='sm')
# Fonction intermédiaire pour gérer l'appel de raffinement et l'affichage
def handle_refinement_request(app_config, fname, lname, age_val, field_name_display, field_val, bias_state, objectives, log_state):
# Appel de la fonction de raffinement
updated_log, result = refine_persona_details_v2(app_config, fname, lname, age_val, field_name_display, field_val, bias_state, objectives, log_state)
# Afficher le résultat (suggestions ou erreur)
if result and "ERREUR:" in result:
# Afficher dans le statut global si c'est une erreur API
status_update = result
gr.Warning(f"Erreur lors du raffinement pour '{field_name_display}'. Vérifiez le log.")
elif result:
# Afficher les suggestions dans une InfoBox
gr.Info(f"Suggestions pour '{field_name_display}':\n{result}")
status_update = "" # Pas d'erreur à afficher globalement
else:
# Cas où result est None ou vide (ne devrait pas arriver mais au cas où)
status_update = ""
gr.Warning(f"Pas de suggestion reçue pour '{field_name_display}'.")
return updated_log, status_update
# Fonction lambda générique pour appeler le handler de raffinement
def create_refine_handler(field_name_display, input_component):
# Le lambda prend les inputs requis par handle_refinement_request
return lambda app_conf, fname, lname, age_val, field_val, bias_state, objectives, log_state: \
handle_refinement_request(app_conf, fname, lname, age_val, field_name_display, field_val, bias_state, objectives, log_state)
# Lier chaque bouton "Affiner"
common_inputs_refine = [app_config_state, first_name_input, last_name_input, age_input]
state_inputs_refine = [bias_analysis_result_state, objective_input, session_log_state]
# La sortie met à jour le log et potentiellement le message de statut global
common_outputs_refine = [session_log_state, status_message_state]
# Lier tous les boutons
refine_buttons_map = {
refine_personality_traits_button: ("Traits de personnalité", personality_traits_input),
refine_values_beliefs_button: ("Valeurs et croyances", values_beliefs_input),
refine_motivations_button: ("Motivations", motivations_input),
refine_hobbies_interests_button: ("Loisirs et intérêts", hobbies_interests_input),
refine_technology_relationship_button: ("Relation avec la technologie", technology_relationship_input),
refine_product_related_activities_button: ("Tâches liées au produit", product_related_activities_input),
refine_pain_points_button: ("Points de douleur", pain_points_input),
refine_product_goals_button: ("Objectifs produit", product_goals_input),
refine_usage_scenarios_button: ("Scénarios d'utilisation", usage_scenarios_input),
refine_main_responsibilities_button: ("Responsabilités principales", main_responsibilities_input),
refine_daily_activities_button: ("Activités journalières", daily_activities_input),
refine_daily_life_button: ("Journée type/Citation", daily_life_input),
refine_brand_relationship_button: ("Relation marque", brand_relationship_input),
refine_market_segment_button: ("Segment marché", market_segment_input),
refine_commercial_objectives_button: ("Objectifs commerciaux", commercial_objectives_input),
refine_visual_codes_button: ("Codes visuels", visual_codes_input),
refine_special_considerations_button: ("Considérations spéciales", special_considerations_input),
refine_references_button: ("Références", references_input),
}
for btn, (label, input_comp) in refine_buttons_map.items():
btn.click(
fn=create_refine_handler(label, input_comp),
inputs=common_inputs_refine + [input_comp] + state_inputs_refine,
outputs=common_outputs_refine
).then( # Chaîne pour mettre à jour l'affichage du statut depuis l'état
fn=lambda status_state, log_state: update_status_display(status_state, log_state),
inputs=[status_message_state, session_log_state],
outputs=[status_display, session_log_state]
)
# --- Onglet 4 : Résumé du Persona ---
with gr.Tab("📄 Étape 4: Résumé du Persona", id=3):
gr.Markdown("### 4. Visualisez le persona complet")
summary_button = gr.Button("Générer le Résumé du Persona")
# Utiliser Markdown pour afficher le HTML du résumé
summary_content = gr.Markdown(elem_classes="persona-summary", value="Cliquez sur 'Générer' pour voir le résumé.")
# Collecter tous les inputs nécessaires pour le résumé DANS LE BON ORDRE pour generate_summary_v2
all_persona_inputs_for_summary = [
first_name_input, last_name_input, age_input, gender_input, persona_description_en_input, # Input EN utilisé pour l'image
skin_color_input, eye_color_input, hair_style_input, hair_color_input,
facial_expression_input, posture_input, clothing_style_input, accessories_input,
marital_status_input, education_level_input, profession_input, income_input,
personality_traits_input, values_beliefs_input, motivations_input, hobbies_interests_input,
main_responsibilities_input, daily_activities_input, technology_relationship_input,
product_related_activities_input, pain_points_input, product_goals_input, usage_scenarios_input,
brand_relationship_input, market_segment_input, commercial_objectives_input,
visual_codes_input, special_considerations_input, daily_life_input, references_input,
# Ajouter les états nécessaires en dernier
persona_image_pil_state, # Passer l'état contenant l'image PIL
session_log_state
]
summary_button.click(
fn=generate_summary_v2,
inputs=all_persona_inputs_for_summary,
outputs=[summary_content, session_log_state] # Met à jour le contenu et le log
)
# --- Onglet 5 : Journal de Bord ---
with gr.Tab("📓 Journal de Bord", id=4):
gr.Markdown("### Suivi du Processus de Création")
gr.Markdown("Ce journal enregistre les étapes clés et les erreurs de votre session.")
log_display_final = gr.Textbox(label="Historique de la session", lines=20, interactive=False, max_lines=MAX_LOG_LINES)
export_log_button_final = gr.Button("Exporter le Journal en .txt")
# Utiliser gr.DownloadButton pour une meilleure UX
# log_file_output = gr.File(label="Télécharger le Journal", file_count="single", visible=False) # Caché initialement
download_log_button = gr.DownloadButton(label="Télécharger le Journal", visible=False)
# Mettre à jour l'affichage du log quand l'état change
session_log_state.change(
fn=lambda log_data: log_data,
inputs=session_log_state,
outputs=log_display_final
)
# Mettre à jour l'affichage global du statut quand l'état change
status_message_state.change(
fn=lambda status_msg, log: update_status_display(status_msg, log),
inputs=[status_message_state, session_log_state],
outputs=[status_display, session_log_state]
)
# Fonction pour préparer le fichier log pour le DownloadButton
def prepare_log_for_download(log_data):
if not log_data:
return gr.update(visible=False) # Cache le bouton si pas de log
# Créer un fichier texte temporaire que Gradio peut servir
# Utiliser delete=False car Gradio doit pouvoir lire le fichier après le retour de la fonction
try:
with tempfile.NamedTemporaryFile(mode='w', delete=False, suffix='.txt', encoding='utf-8') as temp_file:
temp_file.write(log_data)
temp_filepath = temp_file.name
print(f"Fichier log prêt pour téléchargement : {temp_filepath}")
# Retourner le chemin pour le DownloadButton et le rendre visible
# Note: Gradio est censé gérer le nettoyage de ce fichier temporaire.
return gr.update(value=temp_filepath, visible=True)
except Exception as e:
print(f"Erreur création fichier log pour téléchargement: {e}")
return gr.update(visible=False) # Cache le bouton en cas d'erreur
export_log_button_final.click(
fn=prepare_log_for_download,
inputs=session_log_state,
outputs=download_log_button
)
# Lancer l'application
# Utiliser queue() pour gérer les appels API potentiellement longs
# debug=True est utile pour le développement, False en production
# share=False est plus sûr par défaut, surtout avec des clés API
if not openrouter_api_key:
print("\n" + "="*60)
print("ERREUR CRITIQUE : Clé API OpenRouter non trouvée.")
print("Veuillez définir OPENROUTER_API_KEY dans votre environnement.")
print("L'application ne fonctionnera pas correctement sans elle.")
print("="*60 + "\n")
# On pourrait arrêter ici, mais on lance quand même Gradio pour voir l'interface
# et permettre la configuration OpenAI si l'utilisateur le souhaite.
# Cependant, l'état initial sera non fonctionnel sans config valide.
demo.queue().launch(debug=False, share=False)