JeCabrera commited on
Commit
7473a8d
verified
1 Parent(s): 0a060be

Upload app.py

Browse files
Files changed (1) hide show
  1. app.py +22 -12
app.py CHANGED
@@ -347,9 +347,12 @@ if prompt := st.chat_input('驴En qu茅 puedo ayudarte hoy?'):
347
  'avatar': AI_AVATAR_ICON,
348
  })
349
 
350
- # Guardar el historial actualizado
351
- joblib.dump(st.session_state.messages, f'data/{st.session_state.chat_id}-st_messages')
352
- # Salir de la funci贸n para no procesar m谩s este mensaje
 
 
 
353
  st.rerun()
354
 
355
  # Implementaci贸n de reintentos con retroceso exponencial
@@ -378,29 +381,36 @@ if prompt := st.chat_input('驴En qu茅 puedo ayudarte hoy?'):
378
  # Actualizar historial
379
  st.session_state.gemini_history = st.session_state.chat.history
380
 
381
- # Guardar historial
382
- joblib.dump(st.session_state.messages, f'data/{st.session_state.chat_id}-st_messages')
383
- joblib.dump(st.session_state.gemini_history, f'data/{st.session_state.chat_id}-gemini_messages')
 
 
 
384
 
385
- # Salir del bucle si la solicitud fue exitosa
386
  break
387
 
388
  except Exception as e:
389
  retry_count += 1
390
  if retry_count >= max_retries:
391
- # Mostrar mensaje de error si se agotan los reintentos
 
392
  with st.chat_message(name=MODEL_ROLE, avatar=AI_AVATAR_ICON):
393
- st.error(f"Lo siento, estoy experimentando problemas para procesar tu solicitud. Por favor, intenta de nuevo m谩s tarde. Error: {str(e)}")
394
 
395
  st.session_state.messages.append({
396
  'role': MODEL_ROLE,
397
- 'content': f"Lo siento, estoy experimentando problemas para procesar tu solicitud. Por favor, intenta de nuevo m谩s tarde. Error: {str(e)}",
398
  'avatar': AI_AVATAR_ICON,
399
  })
400
 
401
- joblib.dump(st.session_state.messages, f'data/{st.session_state.chat_id}-st_messages')
 
 
 
 
 
402
  else:
403
- # Esperar antes de reintentar (retroceso exponencial)
404
  wait_time = (2 ** retry_count) + (time.time() % 1)
405
  time.sleep(wait_time)
406
 
 
347
  'avatar': AI_AVATAR_ICON,
348
  })
349
 
350
+ # Actualizar chat en memoria
351
+ st.session_state.chats_in_memory[st.session_state.current_chat_id].update({
352
+ 'messages': st.session_state.messages,
353
+ 'gemini_history': st.session_state.gemini_history,
354
+ 'title': st.session_state.chat_title
355
+ })
356
  st.rerun()
357
 
358
  # Implementaci贸n de reintentos con retroceso exponencial
 
381
  # Actualizar historial
382
  st.session_state.gemini_history = st.session_state.chat.history
383
 
384
+ # Actualizar chat en memoria
385
+ st.session_state.chats_in_memory[st.session_state.current_chat_id].update({
386
+ 'messages': st.session_state.messages,
387
+ 'gemini_history': st.session_state.gemini_history,
388
+ 'title': st.session_state.chat_title
389
+ })
390
 
 
391
  break
392
 
393
  except Exception as e:
394
  retry_count += 1
395
  if retry_count >= max_retries:
396
+ error_message = f"Lo siento, estoy experimentando problemas para procesar tu solicitud. Por favor, intenta de nuevo m谩s tarde. Error: {str(e)}"
397
+
398
  with st.chat_message(name=MODEL_ROLE, avatar=AI_AVATAR_ICON):
399
+ st.error(error_message)
400
 
401
  st.session_state.messages.append({
402
  'role': MODEL_ROLE,
403
+ 'content': error_message,
404
  'avatar': AI_AVATAR_ICON,
405
  })
406
 
407
+ # Actualizar chat en memoria con el error
408
+ st.session_state.chats_in_memory[st.session_state.current_chat_id].update({
409
+ 'messages': st.session_state.messages,
410
+ 'gemini_history': st.session_state.gemini_history,
411
+ 'title': st.session_state.chat_title
412
+ })
413
  else:
 
414
  wait_time = (2 ** retry_count) + (time.time() % 1)
415
  time.sleep(wait_time)
416