fatmata commited on
Commit
f2ba221
·
verified ·
1 Parent(s): e0072ea

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +35 -6
app.py CHANGED
@@ -1,10 +1,39 @@
 
 
1
  from transformers import AutoTokenizer, AutoModelForCausalLM
 
2
 
 
 
 
 
 
 
 
 
 
 
3
  MODEL_NAME = "fatmata/psybot"
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
4
 
5
- try:
6
- tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
7
- model = AutoModelForCausalLM.from_pretrained(MODEL_NAME)
8
- print("✅ Modèle chargé avec succès !")
9
- except Exception as e:
10
- print(f"❌ Erreur lors du chargement du modèle : {e}")
 
1
+ import os
2
+ from flask import Flask, request, jsonify
3
  from transformers import AutoTokenizer, AutoModelForCausalLM
4
+ from huggingface_hub import login
5
 
6
+ # 🔐 Récupérer le token Hugging Face depuis les Secrets de Hugging Face
7
+ HF_TOKEN = os.getenv("HF_TOKEN")
8
+
9
+ if not HF_TOKEN:
10
+ raise ValueError("❌ ERREUR : Le token Hugging Face n'est pas défini dans les Secrets !")
11
+
12
+ # 🔑 Se connecter à Hugging Face avec le token sécurisé
13
+ login(HF_TOKEN)
14
+
15
+ # 🚀 Charger le modèle depuis Hugging Face
16
  MODEL_NAME = "fatmata/psybot"
17
+ tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
18
+ model = AutoModelForCausalLM.from_pretrained(MODEL_NAME)
19
+
20
+ # 🌐 Créer l'application Flask
21
+ app = Flask(__name__)
22
+
23
+ @app.route('/chat', methods=['POST'])
24
+ def chat():
25
+ """ Endpoint pour générer une réponse """
26
+ data = request.json
27
+ user_input = data.get("message", "")
28
+
29
+ if not user_input:
30
+ return jsonify({"error": "Aucun message fourni"}), 400
31
+
32
+ input_ids = tokenizer.encode(user_input, return_tensors="pt")
33
+ output = model.generate(input_ids, max_length=150, num_return_sequences=1)
34
+ response_text = tokenizer.decode(output[0], skip_special_tokens=True)
35
+
36
+ return jsonify({"response": response_text})
37
 
38
+ if __name__ == '__main__':
39
+ app.run(host='0.0.0.0', port=7860)