Spaces:
Sleeping
Sleeping
import gradio as gr | |
import requests | |
# Fonction pour interroger Ollama | |
def query_ollama(prompt): | |
# Configuration de l'URL et du modèle Ollama | |
url = "http://localhost:11434/api/generate" # Le port utilisé par Ollama | |
model_name = "hf.co/ibrahimBlyc/LA_Llama:latest" # Nom complet du modèle | |
# Corps de la requête | |
payload = { | |
"model": model_name, | |
"prompt": prompt | |
} | |
try: | |
# Envoi de la requête POST | |
response = requests.post(url, json=payload) | |
response.raise_for_status() # Vérifie les erreurs HTTP | |
result = response.json().get("response", "Aucune réponse reçue.") | |
except requests.exceptions.RequestException as e: | |
result = f"Erreur : {e}" | |
return result | |
# Interface Gradio | |
interface = gr.Interface( | |
fn=query_ollama, | |
inputs=gr.Textbox(label="Entrée utilisateur", placeholder="Posez une question..."), | |
outputs=gr.Textbox(label="Réponse du modèle"), | |
title="Interface Ollama via Hugging Face Spaces", | |
description="Une interface simple pour communiquer avec un modèle Ollama via le port 11434." | |
) | |
if __name__ == "__main__": | |
interface.launch() | |