Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -18,11 +18,18 @@ def load_model():
|
|
18 |
base_model_name = "openai/whisper-large" # Modèle de base
|
19 |
adapter_model_name = "SimpleFrog/whisper_finetuned" # Adaptateur LoRA
|
20 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
21 |
# Charger le modèle de base
|
22 |
model = WhisperForConditionalGeneration.from_pretrained(base_model_name)
|
23 |
|
24 |
-
# Charger l'adaptateur LoRA
|
25 |
-
model = PeftModel.from_pretrained(model, adapter_model_name)
|
26 |
|
27 |
# Charger le processeur audio
|
28 |
processor = WhisperProcessor.from_pretrained(base_model_name)
|
|
|
18 |
base_model_name = "openai/whisper-large" # Modèle de base
|
19 |
adapter_model_name = "SimpleFrog/whisper_finetuned" # Adaptateur LoRA
|
20 |
|
21 |
+
# Récupérer le token Hugging Face depuis une variable d'environnement
|
22 |
+
hf_token = os.environ.get("HF_TOKEN")
|
23 |
+
|
24 |
+
if not hf_token:
|
25 |
+
raise ValueError("Aucun token Hugging Face trouvé dans l'environnement. Ajoute 'HF_TOKEN'.")
|
26 |
+
|
27 |
+
|
28 |
# Charger le modèle de base
|
29 |
model = WhisperForConditionalGeneration.from_pretrained(base_model_name)
|
30 |
|
31 |
+
# Charger l'adaptateur LoRA (avec le token car modèle privé)
|
32 |
+
model = PeftModel.from_pretrained(model, adapter_model_name, token=hf_token)
|
33 |
|
34 |
# Charger le processeur audio
|
35 |
processor = WhisperProcessor.from_pretrained(base_model_name)
|