LA_Llama_Chat / app.py
ibrahimBlyc's picture
Update space
e447252
raw
history blame
1.18 kB
import gradio as gr
import requests
# Fonction pour interroger Ollama
def query_ollama(prompt):
# Configuration de l'URL et du modèle Ollama
url = "http://localhost:11434/api/generate" # Le port utilisé par Ollama
model_name = "hf.co/ibrahimBlyc/LA_Llama:latest" # Nom complet du modèle
# Corps de la requête
payload = {
"model": model_name,
"prompt": prompt
}
try:
# Envoi de la requête POST
response = requests.post(url, json=payload)
response.raise_for_status() # Vérifie les erreurs HTTP
result = response.json().get("response", "Aucune réponse reçue.")
except requests.exceptions.RequestException as e:
result = f"Erreur : {e}"
return result
# Interface Gradio
interface = gr.Interface(
fn=query_ollama,
inputs=gr.Textbox(label="Entrée utilisateur", placeholder="Posez une question..."),
outputs=gr.Textbox(label="Réponse du modèle"),
title="Interface Ollama via Hugging Face Spaces",
description="Une interface simple pour communiquer avec un modèle Ollama via le port 11434."
)
if __name__ == "__main__":
interface.launch()