Spaces:
Running
Running
#/modules/database/discourse_mongo_db.py | |
#/modules/database/discoruse_mongo_db.py | |
from .mongo_db import insert_document, find_documents, update_document, delete_document | |
from datetime import datetime, timezone | |
import logging | |
logger = logging.getLogger(__name__) | |
COLLECTION_NAME = 'student_discourse_analysis' | |
def store_student_discourse_result(username, text1, text2, analysis_result): | |
""" | |
Guarda el resultado del análisis de discurso comparativo en MongoDB. | |
Args: | |
username: Nombre del usuario | |
text1: Primer texto analizado (patrón) | |
text2: Segundo texto analizado (comparación) | |
analysis_result: Resultado del análisis que incluye: | |
- key_concepts1: Lista de conceptos clave y frecuencias del primer texto | |
- key_concepts2: Lista de conceptos clave y frecuencias del segundo texto | |
- graph1: Gráfico del primer texto | |
- graph2: Gráfico del segundo texto | |
""" | |
try: | |
analysis_document = { | |
'username': username, | |
'timestamp': datetime.now(timezone.utc).isoformat(), | |
'text1': text1, | |
'text2': text2, | |
'analysis_type': 'discourse', | |
'key_concepts1': analysis_result['key_concepts1'], | |
'key_concepts2': analysis_result['key_concepts2'], | |
'graph1': analysis_result['graph1'], | |
'graph2': analysis_result['graph2'] | |
} | |
result = insert_document(COLLECTION_NAME, analysis_document) | |
if result: | |
logger.info(f"Análisis del discurso guardado con ID: {result} para el usuario: {username}") | |
return True | |
return False | |
except Exception as e: | |
logger.error(f"Error al guardar el análisis del discurso: {str(e)}") | |
return False | |
def get_student_discourse_analysis(username, limit=10): | |
""" | |
Recupera los análisis semánticos de un estudiante. | |
Args: | |
username: Nombre del usuario | |
limit: Número máximo de análisis a retornar | |
Returns: | |
list: Lista de análisis semánticos | |
""" | |
query = {"username": username, "analysis_type": "semantic"} | |
return find_documents(COLLECTION_NAME, query, sort=[("timestamp", -1)], limit=limit) | |
def update_student_discourse_analysis(analysis_id, update_data): | |
""" | |
Actualiza un análisis semántico existente. | |
Args: | |
analysis_id: ID del análisis a actualizar | |
update_data: Datos a actualizar | |
""" | |
query = {"_id": analysis_id} | |
update = {"$set": update_data} | |
return update_document(COLLECTION_NAME, query, update) | |
def delete_student_discourse_analysis(analysis_id): | |
""" | |
Elimina un análisis semántico. | |
Args: | |
analysis_id: ID del análisis a eliminar | |
""" | |
query = {"_id": analysis_id} | |
return delete_document(COLLECTION_NAME, query) | |
def get_student_discourse_data(username): | |
""" | |
Obtiene todos los análisis semánticos de un estudiante. | |
Args: | |
username: Nombre del usuario | |
Returns: | |
dict: Diccionario con todos los análisis del estudiante | |
""" | |
analyses = get_student_semantic_analysis(username, limit=None) | |
formatted_analyses = [] | |
for analysis in analyses: | |
formatted_analysis = { | |
'timestamp': analysis['timestamp'], | |
'text': analysis['text'], | |
'key_concepts': analysis['key_concepts'], | |
'entities': analysis['entities'] | |
# No incluimos los gráficos en el resumen general | |
} | |
formatted_analyses.append(formatted_analysis) | |
return { | |
'entries': formatted_analyses | |
} | |
# Exportar las funciones necesarias | |
__all__ = [ | |
'store_student_discourse_result', | |
'get_student_discourse_analysis', | |
'update_student_discourse_analysis', | |
'delete_student_discourse_analysis', | |
'get_student_discourse_data' | |
] |