Spaces:
Sleeping
Sleeping
File size: 1,181 Bytes
1b0a70f 6ec905a 1b0a70f dec7ccf ee7e713 dec7ccf 6ec905a ee7e713 6ec905a dec7ccf 6ec905a dec7ccf 1b0a70f dec7ccf 1b0a70f dec7ccf |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 |
import gradio as gr
import requests
# Fonction pour interroger Ollama
def query_ollama(prompt):
# Configuration de l'URL et du modèle Ollama
url = "http://localhost:11434/api" # Le port utilisé par Ollama
model_name = "hf.co/ibrahimBlyc/LA_Llama:latest" # Nom complet du modèle
# Corps de la requête
payload = {
"model": model_name,
"prompt": prompt
}
try:
# Envoi de la requête POST
response = requests.post(url, json=payload)
response.raise_for_status() # Vérifie les erreurs HTTP
result = response.json().get("response", "Aucune réponse reçue.")
except requests.exceptions.RequestException as e:
result = f"Erreur : {e}"
return result
# Interface Gradio
interface = gr.Interface(
fn=query_ollama,
inputs=gr.Textbox(label="Entrée utilisateur", placeholder="Posez une question..."),
outputs=gr.Textbox(label="Réponse du modèle"),
title="Interface Ollama via Hugging Face Spaces",
description="Une interface simple pour communiquer avec un modèle Ollama via le port 11434."
)
if __name__ == "__main__":
interface.launch(share=True)
|