from transformers import pipeline import gradio as gr import torch # Cargar un modelo de texto de Hugging Face (puede ser de completado, traducción, etc.) dispositivo = 0 if torch.cuda.is_available() else -1 modelo = pipeline("text-generation", model="microsoft/Phi-4-multimodal-instruct", device=dispositivo) # Cambia el modelo si lo deseas # Función para generar texto def generar_texto(prompt): resultado = modelo(prompt, max_length=100, do_sample=True) return resultado[0]["generated_text"] # Interfaz con Gradio interfaz = gr.Interface( fn=generar_texto, inputs=gr.Textbox(label="Introduce tu texto"), outputs=gr.Textbox(label="Texto generado"), title="Generador de Texto con Hugging Face", description="Escribe un prompt y el modelo generará un texto basado en él." ) # Ejecutar la app if __name__ == "__main__": interfaz.launch()