Spaces:
Sleeping
Sleeping
import gradio as gr | |
import tensorflow as tf | |
import numpy as np | |
from PIL import Image | |
import cv2 | |
import datetime # Importe o módulo datetime | |
# Defina a camada personalizada FixedDropout | |
class FixedDropout(tf.keras.layers.Dropout): | |
def _get_noise_shape(self, inputs): | |
if self.noise_shape is None: | |
return self.noise_shape | |
symbolic_shape = tf.shape(inputs) | |
noise_shape = [symbolic_shape[axis] if shape is None else shape | |
for axis, shape in enumerate(self.noise_shape)] | |
return tuple(noise_shape) | |
# Registre a camada personalizada FixedDropout | |
tf.keras.utils.get_custom_objects()['FixedDropout'] = FixedDropout | |
# Carregue seu modelo TensorFlow treinado | |
with tf.keras.utils.custom_object_scope({'FixedDropout': FixedDropout}): | |
model = tf.keras.models.load_model('modelo_treinado.h5') | |
# Defina uma função para fazer previsões | |
def classify_image(input_image): | |
# Log da forma da entrada | |
print(f"Forma da entrada: {input_image.shape}") | |
# Redimensione a imagem para as dimensões corretas (192x256) | |
input_image = tf.image.resize(input_image, (192, 256)) # Redimensione para as dimensões esperadas | |
input_image = (input_image / 255.0) # Normalize para [0, 1] | |
input_image = np.expand_dims(input_image, axis=0) # Adicione a dimensão de lote | |
# Log da forma da entrada após o redimensionamento | |
print(f"Forma da entrada após o redimensionamento: {input_image.shape}") | |
# Obtenha o tempo atual | |
current_time = datetime.datetime.now() | |
# Faça a previsão usando o modelo | |
prediction = model.predict(input_image) | |
# Assumindo que o modelo retorna probabilidades para duas classes, você pode retornar a classe com a maior probabilidade | |
class_index = np.argmax(prediction) | |
class_labels = ["Normal", "Cataract"] # Substitua pelas suas etiquetas de classe reais | |
predicted_class = class_labels[class_index] | |
# Crie uma imagem composta com o rótulo de previsão | |
output_image = (input_image[0] * 255).astype('uint8') | |
# Set output image dimensions to match input image | |
output_image = np.ones((input_image.shape[1], input_image.shape[2], 3), dtype=np.uint8) * 255 | |
# Add space for the prediction label at the bottom of the image | |
label_background = np.ones((50, output_image.shape[1], 3), dtype=np.uint8) * 255 | |
# Put the text label and box inside the white background | |
output_image[-50:] = label_background | |
# Write the prediction label on the image | |
font = cv2.FONT_HERSHEY_SIMPLEX | |
font_scale = 0.4 # Tamanho da fonte reduzido | |
cv2.putText(output_image, f"Analysis Time: {current_time.strftime('%Y-%m-%d %H:%M:%S')}", (10, output_image.shape[0] - 30), font, font_scale, (0, 0, 0), 1) | |
cv2.putText(output_image, f"Predicted Class: {predicted_class}", (10, output_image.shape[0] - 10), font, font_scale, (0, 0, 0), 1) # Cor preta | |
# Calculate the box size as a percentage of the image size | |
box_percentage = 0.1 # Adjust as needed | |
box_size = int(min(output_image.shape[1], output_image.shape[0]) * box_percentage) | |
# Calculate the box position both horizontally and vertically | |
box_x = (output_image.shape[1] - box_size) // 2 | |
box_y = (output_image.shape[0] - box_size) // 2 | |
# Color-code the object box based on the predicted class | |
object_box_color = (0, 255, 0) if predicted_class == "Normal" else (255, 0, 0) # Green for Normal, Red for Cataract | |
# Draw a centered object identification box (blue rectangle) | |
cv2.rectangle(output_image, (box_x, box_y), (box_x + box_size, box_y + box_size), object_box_color, 2) # Caixa centralizada | |
return output_image | |
# Crie uma interface Gradio | |
input_interface = gr.Interface( | |
fn=classify_image, | |
inputs="image", # Especifique o tipo de entrada como "image" | |
outputs="image", # Especifique o tipo de saída como "image" | |
live=True | |
) | |
# Inicie o aplicativo Gradio | |
input_interface.launch() | |