File size: 15,782 Bytes
c76bbac
 
 
 
 
 
8f28ae2
348d961
9167aa4
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
c0073a3
32296d6
9167aa4
 
 
32296d6
 
c0073a3
 
 
 
 
 
348d961
9167aa4
 
 
 
 
 
 
 
 
 
 
 
 
348d961
47b6c21
 
 
 
 
 
 
8f28ae2
 
 
 
5ce2734
 
8f28ae2
5ce2734
 
 
 
c0073a3
5ce2734
8f28ae2
5ce2734
 
 
 
 
 
 
8f28ae2
 
 
 
 
c0073a3
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6bf3a51
 
 
 
 
 
 
 
168f935
6bf3a51
168f935
6bf3a51
 
168f935
 
 
 
6bf3a51
168f935
6bf3a51
c0073a3
6bf3a51
c0073a3
 
 
 
 
 
 
 
 
 
 
 
 
1a947a3
c0073a3
 
 
 
 
1a947a3
6bf3a51
c0073a3
6bf3a51
 
 
 
 
 
 
 
 
58645bb
c0073a3
58645bb
 
c0073a3
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
8f28ae2
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
c0073a3
 
 
47b6c21
8bcda54
 
 
 
 
 
 
 
7dec516
c0073a3
c76bbac
d8f563a
 
15d4fae
d8f563a
6a4a20b
7dec516
 
 
 
 
c0073a3
 
 
 
 
7dec516
fa423f3
1781efb
 
 
168f935
 
 
 
 
 
 
 
 
 
 
 
 
 
fa423f3
c0073a3
299bb98
fa423f3
299bb98
c76bbac
fa423f3
 
 
299bb98
c0073a3
0c453b9
 
 
 
 
a6d440d
c76bbac
a6d440d
bfb4d5a
 
5596668
 
 
 
 
 
 
 
 
299bb98
5596668
 
 
 
 
 
6d8e638
5596668
 
ffc7a35
5596668
8b1bcdf
7d1ae9a
 
6d5589e
0c453b9
 
 
 
 
 
 
7d1ae9a
0c453b9
 
 
 
 
 
 
 
58645bb
 
 
a6d440d
58645bb
 
 
7ff1048
58645bb
 
 
 
 
 
 
a6d440d
 
 
7d1ae9a
7ff1048
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
168f935
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
import time
import os
import joblib
import streamlit as st
import google.generativeai as genai
from dotenv import load_dotenv
from puv_formulas import puv_formulas

# Configuración global
CONFIG = {
    'model': {
        'role': 'ai',
        'avatar': '🤖'
    },
    'user': {
        'avatar': '👤'
    },
    'page': {
        'title': "RoboCopy - Creador de PUVs",
        'icon': "🚀",
        'layout': "wide"
    }
}

# Configuración de página
st.set_page_config(
    page_title=CONFIG['page']['title'],
    page_icon=CONFIG['page']['icon'],
    layout=CONFIG['page']['layout']
)

# Configuración de avatares e identificadores
MODEL_ROLE = 'ai'
AI_AVATAR_ICON = '🤖'
USER_AVATAR_ICON = '👤'

# === FUNCIONES AUXILIARES ===
def load_css(file_path):
    try:
        with open(file_path) as f:
            st.markdown(f'<style>{f.read()}</style>', unsafe_allow_html=True)
    except Exception as e:
        st.markdown("""
        <style>
        .robocopy-title {
            color: #4ECDC4 !important;
            font-weight: bold;
            font-size: 2em;
        }
        </style>
        """, unsafe_allow_html=True)

def get_chat_title(messages):
    if not messages:
        return "Nuevo Chat"
    first_msg = messages[0]['content'] if messages else ""
    title = first_msg[:30] + "..." if len(first_msg) > 30 else first_msg
    return title

def get_formulas_for_prompt():
    prompt_text = "\nFÓRMULAS DE PROPUESTAS ÚNICAS DE VALOR (PUVs):\n\n"
    
    for key, formula in puv_formulas.items():
        prompt_text += f"🔹 {key}:\n"
        prompt_text += f"   - Descripción: {formula.get('description', 'Descripción no disponible').strip()}\n"
        
        if 'Structure:' in formula.get('description', ''):
            estructura = formula['description'].split('Structure:')[1].split('Key elements:')[0].strip()
            prompt_text += "   - Estructura Base:\n"
            for line in estructura.split('\n'):
                if line.strip():
                    prompt_text += f"     * {line.strip()}\n"
        
        ejemplos = formula.get('examples', [])[:2]
        if ejemplos:
            prompt_text += "   - Ejemplos destacados:\n"
            for i, ejemplo in enumerate(ejemplos):
                prompt_text += f"     {i+1}. Público objetivo: {ejemplo.get('target_audience', 'No especificado')}\n"
                prompt_text += f"       Servicio: {ejemplo.get('product_service', 'No especificado')}\n"
                prompt_text += f"       PUV: {ejemplo.get('uvp', 'Ejemplo no disponible')}\n"
        
        prompt_text += "\n" + "-"*50 + "\n"
    
    return prompt_text

def add_message(role, content, avatar):
    message = {
        'role': role,
        'content': content,
        'avatar': avatar
    }
    st.session_state.messages.append(message)
    return message

def update_chat_memory():
    st.session_state.chats_in_memory[st.session_state.current_chat_id].update({
        'messages': st.session_state.messages,
        'gemini_history': st.session_state.gemini_history,
        'title': st.session_state.chat_title
    })

def handle_model_error(error, retry_count, max_retries):
    if retry_count >= max_retries:
        error_message = f"Lo siento, estoy experimentando problemas para procesar tu solicitud. Por favor, intenta de nuevo más tarde. Error: {str(error)}"
        with st.chat_message(name=MODEL_ROLE, avatar=AI_AVATAR_ICON):
            st.error(error_message)
        add_message(MODEL_ROLE, error_message, AI_AVATAR_ICON)
        update_chat_memory()
        return True
    return False

def mostrar_con_efecto_escritura(texto, velocidad=0.05):
    placeholder = st.empty()
    contenido_actual = ""
    
    for caracter in texto:
        contenido_actual += caracter
        placeholder.markdown(contenido_actual + "▌")
        time.sleep(velocidad)
    
    placeholder.markdown(contenido_actual)
    return contenido_actual

def process_model_response(prompt, max_retries=3):
    retry_count = 0
    while retry_count < max_retries:
        try:
            # Crear el mensaje del modelo primero
            with st.chat_message(name=MODEL_ROLE, avatar=AI_AVATAR_ICON):
                # Añade un indicador de "escribiendo..."
                typing_indicator = st.empty()
                typing_indicator.markdown("*RoboCopy está escribiendo...*")
                
                response = st.session_state.chat.send_message(prompt, stream=True)
                mensaje_completo = ""
                mensaje_actual = ""
                
                # Procesar la respuesta por chunks con efecto de escritura
                for chunk in response:
                    mensaje_completo += chunk.text
                    for caracter in chunk.text:
                        mensaje_actual += caracter
                        typing_indicator.markdown(mensaje_actual + "▌")
                        time.sleep(0.01)  # Velocidad de escritura ajustable
                
                # Mostrar mensaje final
                typing_indicator.markdown(mensaje_completo)
            
            add_message(MODEL_ROLE, mensaje_completo, AI_AVATAR_ICON)
            st.session_state.gemini_history = st.session_state.chat.history
            update_chat_memory()
            return True
            
        except Exception as e:
            retry_count += 1
            if handle_model_error(e, retry_count, max_retries):
                return False
            wait_time = (1.5 ** retry_count)
            time.sleep(wait_time)
    return False

def handle_example_click(prompt_text):
    """Función para manejar clicks en ejemplos"""
    st.session_state.update({
        'show_examples': False,
        'messages': [],
        'current_chat_id': str(time.time()),
        'gemini_history': [],
        'chat_title': 'Nuevo Chat',
        'user_input': prompt_text  # Aquí pasamos el texto del ejemplo directamente
    })
    
    # Inicializar nuevo chat si es necesario
    if st.session_state.current_chat_id not in st.session_state.chats_in_memory:
        st.session_state.chats_in_memory[st.session_state.current_chat_id] = {
            'messages': [],
            'gemini_history': [],
            'title': 'Nuevo Chat'
        }
    
    st.rerun()  # Forzar recarga de la página
    
    # Eliminar todo el código restante de esta función
    # El procesamiento se hará en la sección de entrada principal
    if st.session_state.current_chat_id not in st.session_state.chats_in_memory:
        st.session_state.chats_in_memory[st.session_state.current_chat_id] = {
            'messages': [],
            'gemini_history': [],
            'title': 'Nuevo Chat'
        }
    
    try:
        title_response = st.session_state.model.generate_content(
            f"Título para consulta de ejemplo: '{prompt_text}' (máximo 4 palabras)"
        )
        st.session_state.chat_title = title_response.text.strip()[:25]
    except Exception as e:
        st.session_state.chat_title = f"Ejemplo-{time.strftime('%H:%M')}"
    
    st.session_state.chats_in_memory[st.session_state.current_chat_id]['title'] = st.session_state.chat_title
    process_model_response(prompt_text)

# === CONFIGURACIÓN INICIAL ===
load_dotenv()
GOOGLE_API_KEY = os.environ.get('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)

# Definición del prompt del sistema
SYSTEM_PROMPT = f"""
Eres un equipo colaborativo de expertos de clase mundial trabajando juntos para crear Propuestas Únicas de Valor (PUVs) excepcionales que conviertan a la audiencia en clientes.

EL EQUIPO DE EXPERTOS:
1. ESTRATEGA MAESTRO DE MARKETING:
   - Experto en marcos de propuestas de valor y estrategias de conversión
   - Asegura que las PUVs sigan la estructura de fórmula seleccionada con precisión
   - Se enfoca en la colocación estratégica de elementos clave de conversión

2. COPYWRITER ELITE DE RESPUESTA DIRECTA:
   - Crea ganchos, historias y elementos persuasivos convincentes
   - Elabora propuestas de valor irresistibles que impulsan conversiones
   - Asegura que el lenguaje resuene con la audiencia objetivo

3. ESPECIALISTA EN PSICOLOGÍA DE AUDIENCIA:
   - Experto en comprender las motivaciones y objeciones de la audiencia
   - Crea contenido que construye conexión genuina y confianza
   - Identifica y aborda miedos y deseos ocultos

{get_formulas_for_prompt()}

INSTRUCCIONES PARA CREAR PUVs:
1. Si el usuario no ha proporcionado información sobre su producto/servicio y audiencia objetivo, solicítala de manera amable y directa.
2. Si el usuario ha proporcionado información pero no ha elegido fórmula específica, pregúntale qué fórmula le gustaría utilizar.
3. Una vez con toda la información, crear propuestas de valor utilizando ÚNICAMENTE la fórmula elegida.
"""

WELCOME_MESSAGE = """
¡Hola! 👋 Soy RoboCopy, tu asistente especializado en crear Propuestas Únicas de Valor impactantes. 
¿En qué puedo ayudarte hoy?
"""

# === INICIALIZACIÓN DEL ESTADO ===
new_chat_id = str(time.time())

if 'chats_in_memory' not in st.session_state:
    st.session_state.update({
        'chats_in_memory': {},
        'current_chat_id': new_chat_id,
        'chat_title': 'Nuevo Chat',
        'messages': [],
        'show_examples': True,
        'gemini_history': []
    })

# === SIDEBAR ===
with st.sidebar:
    col1, col2, col3 = st.columns([1, 2, 1])
    with col2:
        st.image("assets/robocopy_logo.png", width=300)
    
    st.write('# Chats Anteriores')
    
    chat_options = [new_chat_id] + list(st.session_state.chats_in_memory.keys())
    current_index = chat_options.index(st.session_state.current_chat_id) if st.session_state.current_chat_id in chat_options else 0
    
    st.session_state.current_chat_id = st.selectbox(
        label='Selecciona un chat anterior',
        options=chat_options,
        index=current_index,
        format_func=lambda x: st.session_state.chats_in_memory.get(x, {}).get('title', 'Nuevo Chat'),
        key='chat_selector_unique'
    )
    
    if st.button('🗑️ Borrar Historial de Chat Actual'):
        if st.session_state.current_chat_id in st.session_state.chats_in_memory:
            del st.session_state.chats_in_memory[st.session_state.current_chat_id]
        
        # Reiniciar completamente el estado del chat actual
        st.session_state.update({
            'messages': [],
            'gemini_history': [],
            'chat_title': 'Nuevo Chat',
            'show_examples': True
        })
        
        # Reiniciar el chat con el modelo
        st.session_state.chat = st.session_state.model.start_chat(history=[])
        st.session_state.chat.send_message(SYSTEM_PROMPT)
        st.session_state.gemini_history = st.session_state.chat.history
        st.rerun()

# === CONFIGURACIÓN DEL MODELO ===
model = genai.GenerativeModel(model_name='gemini-2.0-flash')
st.session_state.model = model
st.session_state.chat = st.session_state.model.start_chat(history=st.session_state.gemini_history)

if not st.session_state.gemini_history:
    st.session_state.chat.send_message(SYSTEM_PROMPT)
    st.session_state.gemini_history = st.session_state.chat.history

# === MOSTRAR MENSAJES DEL HISTORIAL ===
# Crear el input primero (aparecerá al final)
input_placeholder = st.empty()
new_prompt = input_placeholder.chat_input('¿En qué puedo ayudarte hoy?')

# Contenedor principal para mensajes
chat_container = st.container()

with chat_container:
    # === SECCIÓN DE EJEMPLOS ===
    if st.session_state.show_examples and not st.session_state.messages:
        st.title("💡 RoboCopy - Asistente de PUVs")
        st.markdown("### Tu experto en crear Propuestas Únicas de Valor que convierten")
        st.markdown("### 🎯 Prueba estos ejemplos:")
        
        col1, col2 = st.columns([1, 1])
        
        with col1:
            if st.button("¿Cuál es la mejor fórmula para mi PUV? 🤔", use_container_width=True):
                handle_example_click("¿Podrías explicarme cuál es la mejor fórmula para crear una PUV efectiva para mi negocio?")
            
            if st.button("Necesito una PUV para mi tienda online 🛍️", use_container_width=True):
                handle_example_click("Quiero crear una PUV para mi tienda online de ropa sostenible dirigida a mujeres de 25-35 años")
        
        with col2:
            if st.button("Ayúdame a mejorar mi PUV actual ✨", use_container_width=True):
                handle_example_click("¿Podrías ayudarme a mejorar mi PUV actual para hacerla más persuasiva?")
            
            if st.button("Crear PUV para servicios profesionales 👔", use_container_width=True):
                handle_example_click("Necesito una PUV para mi servicio de consultoría en marketing digital")
    
    st.markdown("---")
    
    # Crear un contenedor para los mensajes que empuja el input hacia abajo
    messages_container = st.container()
    
    # Mostrar mensajes existentes
    for message in st.session_state.messages:
        with st.chat_message(
            name=message['role'],
            avatar=AI_AVATAR_ICON if message['role'] == MODEL_ROLE else USER_AVATAR_ICON
        ):
            st.markdown(message['content'])
    
    # Procesar entrada del usuario si existe
    if 'user_input' in st.session_state:
        prompt = st.session_state.user_input
        del st.session_state.user_input
        
        with st.chat_message("user", avatar=USER_AVATAR_ICON):
            st.markdown(prompt)
        add_message("user", prompt, USER_AVATAR_ICON)
        
        try:
            title_response = st.session_state.model.generate_content(
                f"Título para consulta: '{prompt}' (máximo 4 palabras)"
            )
            st.session_state.chat_title = title_response.text.strip()[:25]
        except Exception as e:
            st.session_state.chat_title = f"Chat-{time.strftime('%H:%M')}"
        
        st.session_state.chats_in_memory[st.session_state.current_chat_id] = {
            'messages': st.session_state.messages,
            'gemini_history': st.session_state.gemini_history,
            'title': st.session_state.chat_title
        }
        
        process_model_response(prompt)
        update_chat_memory()
    
    # Procesar nueva entrada si existe
    if new_prompt:
        with st.chat_message("user", avatar=USER_AVATAR_ICON):
            st.markdown(new_prompt)
        add_message("user", new_prompt, USER_AVATAR_ICON)
        
        try:
            title_response = st.session_state.model.generate_content(
                f"Título para consulta: '{new_prompt}' (máximo 4 palabras)"
            )
            st.session_state.chat_title = title_response.text.strip()[:25]
        except Exception as e:
            st.session_state.chat_title = f"Chat-{time.strftime('%H:%M')}"
        
        st.session_state.chats_in_memory[st.session_state.current_chat_id] = {
            'messages': st.session_state.messages,
            'gemini_history': st.session_state.gemini_history,
            'title': st.session_state.chat_title
        }
        
        process_model_response(new_prompt)
        update_chat_memory()
        # En la sección del SIDEBAR
        if st.button('📝 Nuevo Chat'):
            st.session_state.update({
                'current_chat_id': str(time.time()),
                'messages': [],
                'gemini_history': [],
                'chat_title': 'Nuevo Chat',
                'show_examples': True
            })
            st.session_state.chat = st.session_state.model.start_chat(history=[])
            st.session_state.chat.send_message(SYSTEM_PROMPT)
            st.session_state.gemini_history = st.session_state.chat.history
            st.rerun()