File size: 1,180 Bytes
1b0a70f
6ec905a
1b0a70f
dec7ccf
 
 
7b19019
dec7ccf
ee7e713
dec7ccf
 
 
 
6ec905a
ee7e713
6ec905a
dec7ccf
 
 
 
6ec905a
dec7ccf
 
 
1b0a70f
dec7ccf
 
 
 
 
 
 
1b0a70f
 
 
e447252
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
import gradio as gr
import requests

# Fonction pour interroger Ollama
def query_ollama(prompt):
    # Configuration de l'URL et du modèle Ollama
    url = "http://localhost:11434/api/generate"  # Le port utilisé par Ollama
    model_name = "hf.co/ibrahimBlyc/LA_Llama:latest"  # Nom complet du modèle
    
    # Corps de la requête
    payload = {
        "model": model_name,
        "prompt": prompt
    }
    
    try:
        # Envoi de la requête POST
        response = requests.post(url, json=payload)
        response.raise_for_status()  # Vérifie les erreurs HTTP
        result = response.json().get("response", "Aucune réponse reçue.")
    except requests.exceptions.RequestException as e:
        result = f"Erreur : {e}"
    
    return result

# Interface Gradio
interface = gr.Interface(
    fn=query_ollama,
    inputs=gr.Textbox(label="Entrée utilisateur", placeholder="Posez une question..."),
    outputs=gr.Textbox(label="Réponse du modèle"),
    title="Interface Ollama via Hugging Face Spaces",
    description="Une interface simple pour communiquer avec un modèle Ollama via le port 11434."
)

if __name__ == "__main__":
    interface.launch()