JeCabrera commited on
Commit
bc6df20
·
verified ·
1 Parent(s): e3b7bfa

Upload app.py

Browse files
Files changed (1) hide show
  1. app.py +17 -0
app.py CHANGED
@@ -215,6 +215,21 @@ def handle_model_error(error, retry_count, max_retries):
215
  return True
216
  return False
217
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
218
  def process_model_response(prompt, max_retries=3):
219
  """Función centralizada para procesar respuestas del modelo"""
220
  retry_count = 0
@@ -222,6 +237,8 @@ def process_model_response(prompt, max_retries=3):
222
  try:
223
  response = st.session_state.chat.send_message(prompt, stream=True)
224
  full_text = "".join(chunk.text for chunk in response)
 
 
225
  mensaje_mostrado = mostrar_con_efecto_escritura(full_text, velocidad=0.05)
226
 
227
  add_message(MODEL_ROLE, mensaje_mostrado, AI_AVATAR_ICON)
 
215
  return True
216
  return False
217
 
218
+ # === Añadir esta función en la sección de helpers ===
219
+ def mostrar_con_efecto_escritura(texto, velocidad=0.05):
220
+ """Muestra texto con efecto de escritura en Streamlit"""
221
+ placeholder = st.empty()
222
+ contenido_actual = ""
223
+
224
+ for caracter in texto:
225
+ contenido_actual += caracter
226
+ placeholder.markdown(contenido_actual + "▌")
227
+ time.sleep(velocidad)
228
+
229
+ placeholder.markdown(contenido_actual)
230
+ return contenido_actual
231
+
232
+ # === Modificar en process_model_response ===
233
  def process_model_response(prompt, max_retries=3):
234
  """Función centralizada para procesar respuestas del modelo"""
235
  retry_count = 0
 
237
  try:
238
  response = st.session_state.chat.send_message(prompt, stream=True)
239
  full_text = "".join(chunk.text for chunk in response)
240
+
241
+ # Llamada corregida
242
  mensaje_mostrado = mostrar_con_efecto_escritura(full_text, velocidad=0.05)
243
 
244
  add_message(MODEL_ROLE, mensaje_mostrado, AI_AVATAR_ICON)