fatmata commited on
Commit
5c99e03
·
verified ·
1 Parent(s): c091f94

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +6 -13
app.py CHANGED
@@ -1,20 +1,13 @@
1
  import torch
 
2
  from transformers import AutoTokenizer, AutoModelForCausalLM
3
- from fastapi import FastAPI
4
- from pydantic import BaseModel
5
 
6
  # Charger le modèle fine-tuné
7
  MODEL_NAME = "fatmata/psybot"
8
  tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
9
  model = AutoModelForCausalLM.from_pretrained(MODEL_NAME)
10
 
11
- print("✅ Modèle et tokenizer chargés avec succès !") # Vérification du chargement
12
-
13
- # Définir l'API avec FastAPI
14
- app = FastAPI()
15
-
16
- class UserInput(BaseModel):
17
- text: str
18
 
19
  def generate_response(user_input):
20
  """ Génère une réponse du chatbot PsyBot """
@@ -44,7 +37,7 @@ def generate_response(user_input):
44
 
45
  return response
46
 
47
- @app.post("/generate/")
48
- def generate(user_input: UserInput):
49
- response = generate_response(user_input.text)
50
- return {"response": response}
 
1
  import torch
2
+ import gradio as gr
3
  from transformers import AutoTokenizer, AutoModelForCausalLM
 
 
4
 
5
  # Charger le modèle fine-tuné
6
  MODEL_NAME = "fatmata/psybot"
7
  tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
8
  model = AutoModelForCausalLM.from_pretrained(MODEL_NAME)
9
 
10
+ print("✅ Modèle chargé avec succès :", model.config) # Debugging
 
 
 
 
 
 
11
 
12
  def generate_response(user_input):
13
  """ Génère une réponse du chatbot PsyBot """
 
37
 
38
  return response
39
 
40
+ # Interface Gradio avec le bon modèle
41
+ iface = gr.Interface(fn=generate_response, inputs="text", outputs="text")
42
+
43
+ iface.launch(server_name="0.0.0.0", server_port=7860)