Spaces:
Running
Running
File size: 15,782 Bytes
c76bbac 8f28ae2 348d961 9167aa4 c0073a3 32296d6 9167aa4 32296d6 c0073a3 348d961 9167aa4 348d961 47b6c21 8f28ae2 5ce2734 8f28ae2 5ce2734 c0073a3 5ce2734 8f28ae2 5ce2734 8f28ae2 c0073a3 6bf3a51 168f935 6bf3a51 168f935 6bf3a51 168f935 6bf3a51 168f935 6bf3a51 c0073a3 6bf3a51 c0073a3 1a947a3 c0073a3 1a947a3 6bf3a51 c0073a3 6bf3a51 58645bb c0073a3 58645bb c0073a3 8f28ae2 c0073a3 47b6c21 8bcda54 7dec516 c0073a3 c76bbac d8f563a 15d4fae d8f563a 6a4a20b 7dec516 c0073a3 7dec516 fa423f3 1781efb 168f935 fa423f3 c0073a3 299bb98 fa423f3 299bb98 c76bbac fa423f3 299bb98 c0073a3 0c453b9 a6d440d c76bbac a6d440d bfb4d5a 5596668 299bb98 5596668 6d8e638 5596668 ffc7a35 5596668 8b1bcdf 7d1ae9a 6d5589e 0c453b9 7d1ae9a 0c453b9 58645bb a6d440d 58645bb 7ff1048 58645bb a6d440d 7d1ae9a 7ff1048 168f935 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 |
import time
import os
import joblib
import streamlit as st
import google.generativeai as genai
from dotenv import load_dotenv
from puv_formulas import puv_formulas
# Configuración global
CONFIG = {
'model': {
'role': 'ai',
'avatar': '🤖'
},
'user': {
'avatar': '👤'
},
'page': {
'title': "RoboCopy - Creador de PUVs",
'icon': "🚀",
'layout': "wide"
}
}
# Configuración de página
st.set_page_config(
page_title=CONFIG['page']['title'],
page_icon=CONFIG['page']['icon'],
layout=CONFIG['page']['layout']
)
# Configuración de avatares e identificadores
MODEL_ROLE = 'ai'
AI_AVATAR_ICON = '🤖'
USER_AVATAR_ICON = '👤'
# === FUNCIONES AUXILIARES ===
def load_css(file_path):
try:
with open(file_path) as f:
st.markdown(f'<style>{f.read()}</style>', unsafe_allow_html=True)
except Exception as e:
st.markdown("""
<style>
.robocopy-title {
color: #4ECDC4 !important;
font-weight: bold;
font-size: 2em;
}
</style>
""", unsafe_allow_html=True)
def get_chat_title(messages):
if not messages:
return "Nuevo Chat"
first_msg = messages[0]['content'] if messages else ""
title = first_msg[:30] + "..." if len(first_msg) > 30 else first_msg
return title
def get_formulas_for_prompt():
prompt_text = "\nFÓRMULAS DE PROPUESTAS ÚNICAS DE VALOR (PUVs):\n\n"
for key, formula in puv_formulas.items():
prompt_text += f"🔹 {key}:\n"
prompt_text += f" - Descripción: {formula.get('description', 'Descripción no disponible').strip()}\n"
if 'Structure:' in formula.get('description', ''):
estructura = formula['description'].split('Structure:')[1].split('Key elements:')[0].strip()
prompt_text += " - Estructura Base:\n"
for line in estructura.split('\n'):
if line.strip():
prompt_text += f" * {line.strip()}\n"
ejemplos = formula.get('examples', [])[:2]
if ejemplos:
prompt_text += " - Ejemplos destacados:\n"
for i, ejemplo in enumerate(ejemplos):
prompt_text += f" {i+1}. Público objetivo: {ejemplo.get('target_audience', 'No especificado')}\n"
prompt_text += f" Servicio: {ejemplo.get('product_service', 'No especificado')}\n"
prompt_text += f" PUV: {ejemplo.get('uvp', 'Ejemplo no disponible')}\n"
prompt_text += "\n" + "-"*50 + "\n"
return prompt_text
def add_message(role, content, avatar):
message = {
'role': role,
'content': content,
'avatar': avatar
}
st.session_state.messages.append(message)
return message
def update_chat_memory():
st.session_state.chats_in_memory[st.session_state.current_chat_id].update({
'messages': st.session_state.messages,
'gemini_history': st.session_state.gemini_history,
'title': st.session_state.chat_title
})
def handle_model_error(error, retry_count, max_retries):
if retry_count >= max_retries:
error_message = f"Lo siento, estoy experimentando problemas para procesar tu solicitud. Por favor, intenta de nuevo más tarde. Error: {str(error)}"
with st.chat_message(name=MODEL_ROLE, avatar=AI_AVATAR_ICON):
st.error(error_message)
add_message(MODEL_ROLE, error_message, AI_AVATAR_ICON)
update_chat_memory()
return True
return False
def mostrar_con_efecto_escritura(texto, velocidad=0.05):
placeholder = st.empty()
contenido_actual = ""
for caracter in texto:
contenido_actual += caracter
placeholder.markdown(contenido_actual + "▌")
time.sleep(velocidad)
placeholder.markdown(contenido_actual)
return contenido_actual
def process_model_response(prompt, max_retries=3):
retry_count = 0
while retry_count < max_retries:
try:
# Crear el mensaje del modelo primero
with st.chat_message(name=MODEL_ROLE, avatar=AI_AVATAR_ICON):
# Añade un indicador de "escribiendo..."
typing_indicator = st.empty()
typing_indicator.markdown("*RoboCopy está escribiendo...*")
response = st.session_state.chat.send_message(prompt, stream=True)
mensaje_completo = ""
mensaje_actual = ""
# Procesar la respuesta por chunks con efecto de escritura
for chunk in response:
mensaje_completo += chunk.text
for caracter in chunk.text:
mensaje_actual += caracter
typing_indicator.markdown(mensaje_actual + "▌")
time.sleep(0.01) # Velocidad de escritura ajustable
# Mostrar mensaje final
typing_indicator.markdown(mensaje_completo)
add_message(MODEL_ROLE, mensaje_completo, AI_AVATAR_ICON)
st.session_state.gemini_history = st.session_state.chat.history
update_chat_memory()
return True
except Exception as e:
retry_count += 1
if handle_model_error(e, retry_count, max_retries):
return False
wait_time = (1.5 ** retry_count)
time.sleep(wait_time)
return False
def handle_example_click(prompt_text):
"""Función para manejar clicks en ejemplos"""
st.session_state.update({
'show_examples': False,
'messages': [],
'current_chat_id': str(time.time()),
'gemini_history': [],
'chat_title': 'Nuevo Chat',
'user_input': prompt_text # Aquí pasamos el texto del ejemplo directamente
})
# Inicializar nuevo chat si es necesario
if st.session_state.current_chat_id not in st.session_state.chats_in_memory:
st.session_state.chats_in_memory[st.session_state.current_chat_id] = {
'messages': [],
'gemini_history': [],
'title': 'Nuevo Chat'
}
st.rerun() # Forzar recarga de la página
# Eliminar todo el código restante de esta función
# El procesamiento se hará en la sección de entrada principal
if st.session_state.current_chat_id not in st.session_state.chats_in_memory:
st.session_state.chats_in_memory[st.session_state.current_chat_id] = {
'messages': [],
'gemini_history': [],
'title': 'Nuevo Chat'
}
try:
title_response = st.session_state.model.generate_content(
f"Título para consulta de ejemplo: '{prompt_text}' (máximo 4 palabras)"
)
st.session_state.chat_title = title_response.text.strip()[:25]
except Exception as e:
st.session_state.chat_title = f"Ejemplo-{time.strftime('%H:%M')}"
st.session_state.chats_in_memory[st.session_state.current_chat_id]['title'] = st.session_state.chat_title
process_model_response(prompt_text)
# === CONFIGURACIÓN INICIAL ===
load_dotenv()
GOOGLE_API_KEY = os.environ.get('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
# Definición del prompt del sistema
SYSTEM_PROMPT = f"""
Eres un equipo colaborativo de expertos de clase mundial trabajando juntos para crear Propuestas Únicas de Valor (PUVs) excepcionales que conviertan a la audiencia en clientes.
EL EQUIPO DE EXPERTOS:
1. ESTRATEGA MAESTRO DE MARKETING:
- Experto en marcos de propuestas de valor y estrategias de conversión
- Asegura que las PUVs sigan la estructura de fórmula seleccionada con precisión
- Se enfoca en la colocación estratégica de elementos clave de conversión
2. COPYWRITER ELITE DE RESPUESTA DIRECTA:
- Crea ganchos, historias y elementos persuasivos convincentes
- Elabora propuestas de valor irresistibles que impulsan conversiones
- Asegura que el lenguaje resuene con la audiencia objetivo
3. ESPECIALISTA EN PSICOLOGÍA DE AUDIENCIA:
- Experto en comprender las motivaciones y objeciones de la audiencia
- Crea contenido que construye conexión genuina y confianza
- Identifica y aborda miedos y deseos ocultos
{get_formulas_for_prompt()}
INSTRUCCIONES PARA CREAR PUVs:
1. Si el usuario no ha proporcionado información sobre su producto/servicio y audiencia objetivo, solicítala de manera amable y directa.
2. Si el usuario ha proporcionado información pero no ha elegido fórmula específica, pregúntale qué fórmula le gustaría utilizar.
3. Una vez con toda la información, crear propuestas de valor utilizando ÚNICAMENTE la fórmula elegida.
"""
WELCOME_MESSAGE = """
¡Hola! 👋 Soy RoboCopy, tu asistente especializado en crear Propuestas Únicas de Valor impactantes.
¿En qué puedo ayudarte hoy?
"""
# === INICIALIZACIÓN DEL ESTADO ===
new_chat_id = str(time.time())
if 'chats_in_memory' not in st.session_state:
st.session_state.update({
'chats_in_memory': {},
'current_chat_id': new_chat_id,
'chat_title': 'Nuevo Chat',
'messages': [],
'show_examples': True,
'gemini_history': []
})
# === SIDEBAR ===
with st.sidebar:
col1, col2, col3 = st.columns([1, 2, 1])
with col2:
st.image("assets/robocopy_logo.png", width=300)
st.write('# Chats Anteriores')
chat_options = [new_chat_id] + list(st.session_state.chats_in_memory.keys())
current_index = chat_options.index(st.session_state.current_chat_id) if st.session_state.current_chat_id in chat_options else 0
st.session_state.current_chat_id = st.selectbox(
label='Selecciona un chat anterior',
options=chat_options,
index=current_index,
format_func=lambda x: st.session_state.chats_in_memory.get(x, {}).get('title', 'Nuevo Chat'),
key='chat_selector_unique'
)
if st.button('🗑️ Borrar Historial de Chat Actual'):
if st.session_state.current_chat_id in st.session_state.chats_in_memory:
del st.session_state.chats_in_memory[st.session_state.current_chat_id]
# Reiniciar completamente el estado del chat actual
st.session_state.update({
'messages': [],
'gemini_history': [],
'chat_title': 'Nuevo Chat',
'show_examples': True
})
# Reiniciar el chat con el modelo
st.session_state.chat = st.session_state.model.start_chat(history=[])
st.session_state.chat.send_message(SYSTEM_PROMPT)
st.session_state.gemini_history = st.session_state.chat.history
st.rerun()
# === CONFIGURACIÓN DEL MODELO ===
model = genai.GenerativeModel(model_name='gemini-2.0-flash')
st.session_state.model = model
st.session_state.chat = st.session_state.model.start_chat(history=st.session_state.gemini_history)
if not st.session_state.gemini_history:
st.session_state.chat.send_message(SYSTEM_PROMPT)
st.session_state.gemini_history = st.session_state.chat.history
# === MOSTRAR MENSAJES DEL HISTORIAL ===
# Crear el input primero (aparecerá al final)
input_placeholder = st.empty()
new_prompt = input_placeholder.chat_input('¿En qué puedo ayudarte hoy?')
# Contenedor principal para mensajes
chat_container = st.container()
with chat_container:
# === SECCIÓN DE EJEMPLOS ===
if st.session_state.show_examples and not st.session_state.messages:
st.title("💡 RoboCopy - Asistente de PUVs")
st.markdown("### Tu experto en crear Propuestas Únicas de Valor que convierten")
st.markdown("### 🎯 Prueba estos ejemplos:")
col1, col2 = st.columns([1, 1])
with col1:
if st.button("¿Cuál es la mejor fórmula para mi PUV? 🤔", use_container_width=True):
handle_example_click("¿Podrías explicarme cuál es la mejor fórmula para crear una PUV efectiva para mi negocio?")
if st.button("Necesito una PUV para mi tienda online 🛍️", use_container_width=True):
handle_example_click("Quiero crear una PUV para mi tienda online de ropa sostenible dirigida a mujeres de 25-35 años")
with col2:
if st.button("Ayúdame a mejorar mi PUV actual ✨", use_container_width=True):
handle_example_click("¿Podrías ayudarme a mejorar mi PUV actual para hacerla más persuasiva?")
if st.button("Crear PUV para servicios profesionales 👔", use_container_width=True):
handle_example_click("Necesito una PUV para mi servicio de consultoría en marketing digital")
st.markdown("---")
# Crear un contenedor para los mensajes que empuja el input hacia abajo
messages_container = st.container()
# Mostrar mensajes existentes
for message in st.session_state.messages:
with st.chat_message(
name=message['role'],
avatar=AI_AVATAR_ICON if message['role'] == MODEL_ROLE else USER_AVATAR_ICON
):
st.markdown(message['content'])
# Procesar entrada del usuario si existe
if 'user_input' in st.session_state:
prompt = st.session_state.user_input
del st.session_state.user_input
with st.chat_message("user", avatar=USER_AVATAR_ICON):
st.markdown(prompt)
add_message("user", prompt, USER_AVATAR_ICON)
try:
title_response = st.session_state.model.generate_content(
f"Título para consulta: '{prompt}' (máximo 4 palabras)"
)
st.session_state.chat_title = title_response.text.strip()[:25]
except Exception as e:
st.session_state.chat_title = f"Chat-{time.strftime('%H:%M')}"
st.session_state.chats_in_memory[st.session_state.current_chat_id] = {
'messages': st.session_state.messages,
'gemini_history': st.session_state.gemini_history,
'title': st.session_state.chat_title
}
process_model_response(prompt)
update_chat_memory()
# Procesar nueva entrada si existe
if new_prompt:
with st.chat_message("user", avatar=USER_AVATAR_ICON):
st.markdown(new_prompt)
add_message("user", new_prompt, USER_AVATAR_ICON)
try:
title_response = st.session_state.model.generate_content(
f"Título para consulta: '{new_prompt}' (máximo 4 palabras)"
)
st.session_state.chat_title = title_response.text.strip()[:25]
except Exception as e:
st.session_state.chat_title = f"Chat-{time.strftime('%H:%M')}"
st.session_state.chats_in_memory[st.session_state.current_chat_id] = {
'messages': st.session_state.messages,
'gemini_history': st.session_state.gemini_history,
'title': st.session_state.chat_title
}
process_model_response(new_prompt)
update_chat_memory()
# En la sección del SIDEBAR
if st.button('📝 Nuevo Chat'):
st.session_state.update({
'current_chat_id': str(time.time()),
'messages': [],
'gemini_history': [],
'chat_title': 'Nuevo Chat',
'show_examples': True
})
st.session_state.chat = st.session_state.model.start_chat(history=[])
st.session_state.chat.send_message(SYSTEM_PROMPT)
st.session_state.gemini_history = st.session_state.chat.history
st.rerun() |