File size: 2,457 Bytes
1ef2263
e109700
b26a6dc
 
7f89f2f
e109700
 
b26a6dc
e109700
38a3c61
e109700
 
 
 
 
 
f73ccd7
e109700
 
 
 
 
 
f73ccd7
e109700
 
38a3c61
e109700
 
38a3c61
b26a6dc
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
38a3c61
e109700
 
b26a6dc
e109700
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
import logging
from fastapi import FastAPI
import gradio as gr
from gradio.routes import mount_gradio_app

from api.router import router, verify_api_key
from db.models import fetch_models_for_group
from models.loader import load_models, model_pipelines
from config.settings import RESOURCE_GROUP

# Configuration de base des logs
logging.basicConfig(
    level=logging.INFO,
    format="%(asctime)s - %(name)s - %(levelname)s - %(message)s",
)
logger = logging.getLogger(__name__)

# Créer l'application FastAPI
app = FastAPI(
    title="Tamis AI Inference API",
    description="API pour l'inférence des modèles de classification d'objets",
    version="0.1.0",
)

# Ajouter middleware d'authentification
app.middleware("http")(verify_api_key)

# Inclure les routes
app.include_router(router)

async def init_models():
    """Charger les modèles au démarrage pour Gradio et FastAPI."""
    logger.info("Initializing models for Gradio and FastAPI...")
    try:
        models_data = await fetch_models_for_group(RESOURCE_GROUP)
        await load_models(models_data)
        logger.info("Models loaded successfully.")
    except Exception as e:
        logger.error(f"Failed to initialize models: {e}", exc_info=True)
        # Decide if the app should fail to start or continue without models
        # raise RuntimeError("Model initialization failed.")
        # For now, let's log and continue, Gradio will show an empty list
        pass

# Définir la fonction pour Gradio qui récupère les modèles chargés
def get_loaded_models_list():
    """Retourne la liste des noms de modèles actuellement chargés."""
    return list(model_pipelines.keys())

# Créer l'interface Gradio
gradio_app = gr.Blocks(title="Tamis AI - Modèles Chargés")
with gradio_app:
    gr.Markdown("## Modèles actuellement chargés dans l'API")
    gr.JSON(get_loaded_models_list, label="Modèles Chargés")

# Monter l'application Gradio à la racine dans FastAPI
app = mount_gradio_app(
    app, gradio_app, path="/"
)

# Event startup to load models (ensure it runs *after* Gradio is mounted if needed)
# We call init_models inside startup
@app.on_event("startup")
async def startup():
    """Initialiser l'API : charger les modèles depuis la base de données."""
    await init_models() # Call the consolidated init function

@app.get("/health")
async def health_check():
    """Point d'entrée pour vérifier l'état de l'API."""
    return {"status": "healthy"}