File size: 1,154 Bytes
b2da64f
0b63cd1
7139070
 
b2da64f
7139070
b2da64f
7139070
0b63cd1
 
 
7139070
 
 
494b259
0b63cd1
 
 
494b259
0b63cd1
 
7139070
0b63cd1
494b259
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
import gradio as gr
from openai import OpenAI
import os
from dotenv import load_dotenv

load_dotenv()

# Initialiser le client
client = OpenAI(
    base_url="https://api-inference.huggingface.co/v1",
    api_key=os.getenv('HF_TOKEN')
)

def generate_response(message, temperature=0.7):
    try:
        response = client.chat.completions.create(
            model="Nac31/Sacha-Mistral-0",
            messages=[{"role": "user", "content": message}],
            temperature=temperature,
            max_tokens=500,
            stream=False
        )
        return response.choices[0].message.content
    except Exception as e:
        return f"Une erreur s'est produite : {str(e)}"

# Interface Gradio
demo = gr.Interface(
    fn=generate_response,
    inputs=[
        gr.Textbox(label="Votre message", placeholder="Entrez votre message ici..."),
        gr.Slider(minimum=0.1, maximum=1.0, value=0.7, label="Température")
    ],
    outputs=gr.Textbox(label="Réponse"),
    title="Chat avec Sacha-Mistral",
    description="Un assistant conversationnel en français basé sur le modèle Sacha-Mistral"
)

if __name__ == "__main__":
    demo.launch()