import torch from monai.networks.nets import DenseNet121 import gradio as gr from monai.transforms import ( EnsureChannelFirst, Compose, LoadImage, ScaleIntensity, Resize, ) import os, glob # ================================================================= # 1. CARGA Y MODELO (Sin cambios necesarios) # ================================================================= model = DenseNet121(spatial_dims=2, in_channels=1, out_channels=6) # **Importante:** Asegúrate de que el archivo 'weights/mednist_model.pth' exista y sea accesible. try: model.load_state_dict(torch.load('weights/mednist_model.pth', map_location=torch.device('cpu'))) except FileNotFoundError: print("ERROR: No se encontró el archivo de pesos 'mednist_model.pth'. La aplicación fallará.") # Puedes añadir un placeholder o salir si el archivo no existe. pass class_names = [ 'AbdomenCT', 'BreastMRI', 'CXR', 'ChestCT', 'Hand', 'HeadCT'] # ================================================================= # 2. TRANSFORMACIONES (Añadido 'image_only=True' para robustez) # ================================================================= # La resolución de 64x64 es un supuesto común para MedNIST, si el entrenamiento # usó otro tamaño, ajusta 'spatial_size'. test_transforms = Compose( [ # LoadImage ahora usa 'image_only=True' para devolver un tensor simple # y no un diccionario, simplificando la tubería. # Además, añadiremos 'convert_to_tensor=True' y la gestión de canales. LoadImage(image_only=True), EnsureChannelFirst(), Resize(spatial_size=(64, 64)), ScaleIntensity(), # Normaliza al rango [0, 1] ] ) # ================================================================= # 3. FUNCIÓN DE CLASIFICACIÓN (Manejo de errores mejorado) # ================================================================= def classify_image(image_filepath): # Manejamos explícitamente el caso donde no hay imagen if image_filepath is None: return {'Error': 1.0} try: # Aplicar las transformaciones. # MONAI cargará y preprocesará la imagen. input_tensor = test_transforms(image_filepath) except Exception as e: print(f"Error durante el preprocesamiento de la imagen: {e}") # Devolvemos un error explícito a Gradio return {"Error en preprocesamiento": 1.0} # Aseguramos que la forma del tensor de entrada sea [1, 1, 64, 64] para el modelo 2D # Si la imagen tiene 3 canales y LoadImage falla la conversión, esto fallará aquí o antes. if input_tensor.ndim == 3 and input_tensor.shape[0] == 1: input_tensor = input_tensor.unsqueeze(dim=0) # Añadir dimensión de lote: [1, C, H, W] else: print(f"Forma inesperada del tensor después de EnsureChannelFirst: {input_tensor.shape}") return {"Error de forma (Canales/Dimensiones)": 1.0} # Inferencia model.eval() with torch.no_grad(): try: pred = model(input_tensor) prob = torch.nn.functional.softmax(pred[0], dim=0) confidences = {class_names[i]: float(prob[i]) for i in range(6)} print(confidences) return confidences except Exception as e: print(f"Error durante la inferencia del modelo: {e}") return {"Error de inferencia (El modelo falló)": 1.0} # ================================================================= # 4. INTERFAZ DE USUARIO (Ajuste de Gradio) # ================================================================= with gr.Blocks(title="Medical Image Classification with MONAI - ClassCat", css=".gradio-container {background:mintcream;}" ) as demo: gr.HTML("""
Medical Image Classification with MONAI
""") with gr.Row(): # **AJUSTE CRUCIAL:** 'image_mode="L"' pide a Gradio que convierta # la imagen a escala de grises al subirla, previniendo errores de 3 canales. input_image = gr.Image(type="filepath", image_mode="L") output_label=gr.Label(label="Probabilities", num_top_classes=3) send_btn = gr.Button("Infer") send_btn.click(fn=classify_image, inputs=input_image, outputs=output_label) # ... (Sección de ejemplos sin cambios) ... with gr.Row(): gr.Examples(['./samples/mednist_AbdomenCT00.png'], label='Sample images : AbdomenCT', inputs=input_image) gr.Examples(['./samples/mednist_CXR02.png'], label='CXR', inputs=input_image) gr.Examples(['./samples/mednist_ChestCT08.png'], label='ChestCT', inputs=input_image) gr.Examples(['./samples/mednist_Hand01.png'], label='Hand', inputs=input_image) gr.Examples(['./samples/mednist_HeadCT07.png'], label='HeadCT', inputs=input_image) demo.launch(debug=True)