Spaces:
Running
Running
File size: 14,668 Bytes
c76bbac 348d961 ae5207e 348d961 ae5207e 348d961 ae5207e 348d961 ae5207e 348d961 c76bbac 6d6ad89 c76bbac fa423f3 c76bbac d8f563a 15d4fae d8f563a 6a4a20b c76bbac 6a4a20b c76bbac 6a4a20b c76bbac 6a4a20b c76bbac 6a4a20b c76bbac fa423f3 274e6d4 fa423f3 c76bbac fa423f3 c76bbac fa423f3 c76bbac fa423f3 c76bbac fa423f3 15ab203 fa423f3 274e6d4 fa423f3 15ab203 fa423f3 15ab203 fa423f3 15ab203 fa423f3 15ab203 fa423f3 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 |
import time
import os
import joblib
import streamlit as st
import google.generativeai as genai
from dotenv import load_dotenv
# Función para cargar CSS personalizado
def load_css(file_path):
with open(file_path) as f:
st.markdown(f'<style>{f.read()}</style>', unsafe_allow_html=True)
# Intentar cargar el CSS personalizado con ruta absoluta para mayor seguridad
try:
css_path = os.path.join(os.path.dirname(__file__), 'static', 'css', 'style.css')
load_css(css_path)
except Exception as e:
print(f"Error al cargar CSS: {e}")
# Si el archivo no existe, crear un estilo básico en línea
st.markdown("""
<style>
.robocopy-title {
color: #4ECDC4 !important;
font-weight: bold;
font-size: 2em;
}
</style>
""", unsafe_allow_html=True)
load_dotenv()
GOOGLE_API_KEY=os.environ.get('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
new_chat_id = f'{time.time()}'
MODEL_ROLE = 'ai'
AI_AVATAR_ICON = '🤖' # Cambia el emoji por uno de robot para coincidir con tu logo
USER_AVATAR_ICON = '👤' # Añade un avatar para el usuario
# Definición del prompt multipersona para el sistema
SYSTEM_PROMPT = """
Eres un equipo colaborativo de expertos de clase mundial trabajando juntos para crear Propuestas Únicas de Valor (PUVs) excepcionales que conviertan a la audiencia en clientes.
EL EQUIPO DE EXPERTOS:
1. ESTRATEGA MAESTRO DE MARKETING:
- Experto en marcos de propuestas de valor y estrategias de conversión
- Asegura que las PUVs sigan la estructura de fórmula seleccionada con precisión
- Se enfoca en la colocación estratégica de elementos clave de conversión
2. COPYWRITER ELITE DE RESPUESTA DIRECTA:
- Crea ganchos, historias y elementos persuasivos convincentes
- Elabora propuestas de valor irresistibles que impulsan conversiones
- Asegura que el lenguaje resuene con la audiencia objetivo
3. ESPECIALISTA EN PSICOLOGÍA DE AUDIENCIA:
- Experto en comprender las motivaciones y objeciones de la audiencia
- Crea contenido que construye conexión genuina y confianza
- Identifica y aborda miedos y deseos ocultos
4. MAESTRO DE DIFERENCIACIÓN:
- Crea propuestas únicas que destacan entre la competencia
- Desarrolla ejemplos y casos de estudio relacionables
- Asegura que las PUVs apoyen la transformación que se ofrece
5. EXPERTO EN CONVERSIÓN:
- Se especializa en crear PUVs que mantengan la atención y generen acción
- Crea elementos interactivos y ganchos de engagement
- Asegura que las PUVs fluyan naturalmente y mantengan el interés alto
"""
# Mensaje de bienvenida mejorado
WELCOME_MESSAGE = """
# 🚀 ¡Bienvenido a RoboCopy PUV Creator! 🚀
Somos un equipo de expertos en marketing y psicología de audiencia, especializados en crear **Propuestas Únicas de Valor (PUVs)** que transforman visitantes en clientes.
## 💼 ¿Qué podemos hacer por ti?
Creamos PUVs poderosas y persuasivas que:
- **Capturan la atención** de tu audiencia ideal
- **Comunican claramente** el valor único de tu oferta
- **Convierten visitantes** en clientes leales
## 📋 Para ayudarte, necesitamos conocer:
1️⃣ **Tu producto o servicio**: ¿Qué ofreces exactamente? Cuéntanos sus características principales.
2️⃣ **Tu audiencia objetivo**: ¿Quiénes son tus clientes ideales? Sé lo más específico posible.
3️⃣ **La fórmula que prefieres**:
- **A) Problema-Solución**: "Para [audiencia] que sufre [problema], [producto] proporciona [solución]"
- **B) Antes-Después**: "Transforma [situación actual] en [situación deseada] con [producto]"
- **C) Beneficio Principal**: "[Producto] te ayuda a [beneficio principal] sin [obstáculo común]"
## 🔍 Nuestro proceso:
1. Analizaremos los puntos de dolor de tu audiencia
2. Identificaremos los beneficios clave de tu producto/servicio
3. Crearemos TRES propuestas únicas de valor potentes y persuasivas
**¡Comencemos!** Por favor, comparte los detalles de tu producto/servicio, audiencia objetivo y la fórmula que prefieres.
"""
# Create a data/ folder if it doesn't already exist
try:
os.mkdir('data/')
except:
# data/ folder already exists
pass
# Load past chats (if available)
try:
past_chats: dict = joblib.load('data/past_chats_list')
except:
past_chats = {}
# Sidebar allows a list of past chats
with st.sidebar:
# Centrar el logo y eliminar el título de RoboCopy
col1, col2, col3 = st.columns([1, 2, 1])
with col2:
st.image("assets/robocopy_logo.png", width=300)
st.write('# Chats Anteriores')
if st.session_state.get('chat_id') is None:
st.session_state.chat_id = st.selectbox(
label='Selecciona un chat anterior',
options=[new_chat_id] + list(past_chats.keys()),
format_func=lambda x: past_chats.get(x, 'Nuevo Chat'),
placeholder='_',
)
else:
# This will happen the first time AI response comes in
st.session_state.chat_id = st.selectbox(
label='Selecciona un chat anterior',
options=[new_chat_id, st.session_state.chat_id] + list(past_chats.keys()),
index=1,
format_func=lambda x: past_chats.get(x, 'Nuevo Chat' if x != st.session_state.chat_id else st.session_state.chat_title),
placeholder='_',
)
# Inicializar el título de chat si es necesario
if st.session_state.get('chat_title') is None:
if st.session_state.chat_id in past_chats:
st.session_state.chat_title = past_chats[st.session_state.chat_id]
else:
st.session_state.chat_title = 'Nuevo Chat'
st.write('# Creador de Propuestas Únicas de Valor')
# Inicializar mensajes si es un chat nuevo
if not st.session_state.get('messages'):
st.session_state.messages = []
# Eliminamos el mensaje automático de bienvenida
# No añadimos ningún mensaje inicial
with st.chat_message(name=MODEL_ROLE, avatar=AI_AVATAR_ICON):
st.markdown(WELCOME_MESSAGE)
# Guardamos en el historial
st.session_state.messages.append(
dict(
role=MODEL_ROLE,
content=WELCOME_MESSAGE,
avatar=AI_AVATAR_ICON,
)
)
# Chat history (allows to ask multiple questions)
try:
st.session_state.messages = joblib.load(
f'data/{st.session_state.chat_id}-st_messages'
)
st.session_state.gemini_history = joblib.load(
f'data/{st.session_state.chat_id}-gemini_messages'
)
print('old cache')
except:
if not st.session_state.get('messages'):
st.session_state.messages = []
st.session_state.gemini_history = []
print('new_cache made')
# Configuración del modelo sin el parámetro system_instruction
model = genai.GenerativeModel(
model_name='gemini-2.0-flash'
)
st.session_state.model = model
st.session_state.chat = st.session_state.model.start_chat(
history=st.session_state.gemini_history,
)
# Si es un chat nuevo, enviar el prompt del sistema como primer mensaje
if not st.session_state.gemini_history:
# Enviamos el prompt del sistema como primer mensaje (invisible para el usuario)
st.session_state.chat.send_message(SYSTEM_PROMPT)
# No guardamos este mensaje en st.session_state.messages para que no se muestre al usuario
# pero sí en gemini_history para que el modelo lo recuerde
st.session_state.gemini_history = st.session_state.chat.history
# Display chat messages from history on app rerun
for message in st.session_state.messages:
with st.chat_message(
name=message['role'],
avatar=message.get('avatar'),
):
st.markdown(message['content'])
# React to user input
if prompt := st.chat_input('¿Cuál es tu producto o servicio?'): # Mensaje más específico
# Verificar si es la primera interacción y el usuario pregunta por las funciones
is_asking_about_functions = any(keyword in prompt.lower() for keyword in
["qué haces", "funciones", "ayudar", "puedes hacer", "cómo funciona", "para qué sirves"])
if is_asking_about_functions and not past_chats.get(st.session_state.chat_id):
# Si pregunta por las funciones, mostrar el mensaje de bienvenida
response_content = WELCOME_MESSAGE
# Display assistant response in chat message container
with st.chat_message(name=MODEL_ROLE, avatar=AI_AVATAR_ICON):
st.markdown(response_content)
# Add to chat history
st.session_state.messages.append(
dict(
role=MODEL_ROLE,
content=response_content,
avatar=AI_AVATAR_ICON,
)
)
else:
# Procesamiento normal para otras preguntas
# Save this as a chat for later
if st.session_state.chat_id not in past_chats.keys():
# Es una nueva conversación, generemos un título basado en el primer mensaje
# Primero, guardamos un título temporal
temp_title = f'PUV-{st.session_state.chat_id}'
past_chats[st.session_state.chat_id] = temp_title
# Generamos un título basado en el contenido del mensaje
try:
# Usamos el mismo modelo para generar un título corto
title_generator = genai.GenerativeModel('gemini-2.0-flash')
title_response = title_generator.generate_content(
f"Genera un título corto (máximo 5 palabras) que describa de qué producto o servicio trata esta consulta, sin usar comillas ni puntuación: '{prompt}'")
# Obtenemos el título generado
generated_title = title_response.text.strip()
# Actualizamos el título en past_chats
if generated_title:
st.session_state.chat_title = f"PUV: {generated_title}"
past_chats[st.session_state.chat_id] = f"PUV: {generated_title}"
else:
st.session_state.chat_title = temp_title
except Exception as e:
print(f"Error al generar título: {e}")
st.session_state.chat_title = temp_title
else:
# Ya existe esta conversación, usamos el título guardado
st.session_state.chat_title = past_chats[st.session_state.chat_id]
joblib.dump(past_chats, 'data/past_chats_list')
# Display user message in chat message container
with st.chat_message('user', avatar=USER_AVATAR_ICON):
st.markdown(prompt)
# Add user message to chat history
st.session_state.messages.append(
dict(
role='user',
content=prompt,
)
)
# Implementación de reintentos con retroceso exponencial
max_retries = 3
retry_count = 0
while retry_count < max_retries:
try:
## Send message to AI
response = st.session_state.chat.send_message(
prompt,
stream=True,
)
# Display assistant response in chat message container
with st.chat_message(
name=MODEL_ROLE,
avatar=AI_AVATAR_ICON,
):
message_placeholder = st.empty()
full_response = ''
assistant_response = response
# Añade un indicador de "escribiendo..."
typing_indicator = st.empty()
typing_indicator.markdown("*Nuestro equipo de expertos está analizando tu información...*")
# Streams in a chunk at a time
for chunk in response:
# Simulate stream of chunk
for ch in chunk.text.split(' '):
full_response += ch + ' '
time.sleep(0.1)
# Rewrites with a cursor at end
message_placeholder.write(full_response + '▌')
# Elimina el indicador de escritura
typing_indicator.empty()
# Write full message with placeholder
message_placeholder.write(full_response)
# Add assistant response to chat history
st.session_state.messages.append(
dict(
role=MODEL_ROLE,
content=st.session_state.chat.history[-1].parts[0].text,
avatar=AI_AVATAR_ICON,
)
)
st.session_state.gemini_history = st.session_state.chat.history
# Save to file
joblib.dump(
st.session_state.messages,
f'data/{st.session_state.chat_id}-st_messages',
)
joblib.dump(
st.session_state.gemini_history,
f'data/{st.session_state.chat_id}-gemini_messages',
)
# Si llegamos aquí, la solicitud fue exitosa
break
except Exception as e:
retry_count += 1
if retry_count >= max_retries:
# Si agotamos los reintentos, mostramos un mensaje de error
with st.chat_message(name=MODEL_ROLE, avatar=AI_AVATAR_ICON):
st.error(f"Lo sentimos, estamos experimentando problemas para procesar tu solicitud. Por favor, intenta de nuevo más tarde. Error: {str(e)}")
st.session_state.messages.append(
dict(
role=MODEL_ROLE,
content=f"Lo sentimos, estamos experimentando problemas para procesar tu solicitud. Por favor, intenta de nuevo más tarde. Error: {str(e)}",
avatar=AI_AVATAR_ICON,
)
)
joblib.dump(
st.session_state.messages,
f'data/{st.session_state.chat_id}-st_messages',
)
else:
# Esperamos antes de reintentar (retroceso exponencial)
wait_time = (2 ** retry_count) + (time.time() % 1)
time.sleep(wait_time) |