Spaces:
Sleeping
Sleeping
Actualizar app.py con notas, análisis y justificaciones, actualizar requirements.txt
Browse files
app.py
CHANGED
|
@@ -1,86 +1,67 @@
|
|
| 1 |
-
|
| 2 |
-
#
|
| 3 |
-
|
| 4 |
from transformers import DetrImageProcessor, DetrForObjectDetection
|
| 5 |
import torch
|
| 6 |
from PIL import Image
|
| 7 |
import gradio as gr
|
| 8 |
|
| 9 |
-
#
|
| 10 |
-
#
|
| 11 |
-
#
|
| 12 |
-
#
|
| 13 |
-
#
|
| 14 |
-
#
|
| 15 |
-
|
| 16 |
-
|
| 17 |
-
|
| 18 |
# Cargar el procesador y el modelo
|
|
|
|
| 19 |
processor = DetrImageProcessor.from_pretrained("facebook/detr-resnet-50")
|
| 20 |
model = DetrForObjectDetection.from_pretrained("facebook/detr-resnet-50")
|
| 21 |
|
| 22 |
# Explicación:
|
| 23 |
-
#
|
| 24 |
-
# No necesitamos entrenar nada desde cero
|
| 25 |
-
# processor prepara la imagen (
|
| 26 |
-
# model
|
| 27 |
-
|
| 28 |
-
# Decisión tomada: usamos un modelo preentrenado porque entrenar uno desde cero requiere millones de imágenes y mucho poder de cómputo. Con Hugging Face podemos reutilizar un modelo listo.
|
| 29 |
-
|
| 30 |
-
#--------------------------------------------------------------------------------------------------------
|
| 31 |
|
|
|
|
| 32 |
# Función para procesar la imagen
|
|
|
|
| 33 |
def detect_objects(image):
|
| 34 |
# Preprocesamiento
|
| 35 |
inputs = processor(images=image, return_tensors="pt")
|
| 36 |
|
| 37 |
-
# Explicación:
|
| 38 |
-
|
| 39 |
-
#
|
| 40 |
-
#
|
| 41 |
-
# return_tensors="pt" indica que los tensores se hacen para PyTorch (pt = pytorch).
|
| 42 |
-
# Decisión tomada: usamos processor en lugar de hacer manualmente redimensionar/normalizar la imagen porque así evitamos errores y aprovechamos la configuración estándar del modelo.
|
| 43 |
-
|
| 44 |
-
#--------------------------------------------------------------------------------------------------------
|
| 45 |
|
| 46 |
# Detectar objetos
|
| 47 |
with torch.no_grad():
|
| 48 |
outputs = model(**inputs)
|
| 49 |
|
| 50 |
-
# Explicación:
|
| 51 |
-
|
| 52 |
-
#
|
| 53 |
-
# model(**inputs) corre la imagen por la red neuronal y devuelve predicciones:
|
| 54 |
-
# qué objetos cree que hay
|
| 55 |
-
# dónde están ubicados
|
| 56 |
-
|
| 57 |
-
# Decisión tomada: usar no_grad() ahorra memoria y acelera la ejecución, ideal para inferencia.
|
| 58 |
-
|
| 59 |
-
#--------------------------------------------------------------------------------------------------------
|
| 60 |
|
| 61 |
# Filtrar resultados
|
| 62 |
target_sizes = torch.tensor([image.size[::-1]]) # (alto, ancho)
|
| 63 |
results = processor.post_process_object_detection(outputs, target_sizes=target_sizes, threshold=0.9)[0]
|
| 64 |
|
| 65 |
-
# Explicación:
|
| 66 |
-
|
| 67 |
-
#
|
| 68 |
-
#
|
| 69 |
-
#
|
| 70 |
-
# puntaje de confianza (score).
|
| 71 |
-
# cajas delimitadoras (boxes) que marcan dónde está el objeto.
|
| 72 |
-
# threshold=0.9: solo se aceptan predicciones con 90% de confianza o más.
|
| 73 |
-
|
| 74 |
-
# Decisión tomada: se fija un umbral alto (0.9) para reducir falsos positivos. Si bajamos a 0.5, detectaría más objetos, pero también más errores.
|
| 75 |
-
|
| 76 |
-
#-------------------------------------------------------------------------------------------------------
|
| 77 |
|
| 78 |
-
# Crear
|
| 79 |
labels = results["labels"]
|
| 80 |
scores = results["scores"]
|
| 81 |
boxes = results["boxes"]
|
| 82 |
|
| 83 |
-
# Mostrar los objetos detectados
|
| 84 |
detected_objects = []
|
| 85 |
for score, label, box in zip(scores, labels, boxes):
|
| 86 |
detected_objects.append(f"Objeto: {label}, Score: {score:.2f}, Box: {box.tolist()}")
|
|
@@ -88,58 +69,44 @@ def detect_objects(image):
|
|
| 88 |
return "\n".join(detected_objects)
|
| 89 |
|
| 90 |
# Explicación:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 91 |
|
| 92 |
-
#
|
| 93 |
-
#
|
| 94 |
-
#
|
| 95 |
-
#
|
| 96 |
-
# Objeto: 1, Score: 0.98, Box: [12, 34, 200, 300]
|
| 97 |
-
|
| 98 |
-
# Decisión tomada: mostrar los resultados como texto para entender primero qué devuelve el modelo. Después podemos mejorarlo para dibujar cajas en la imagen (más visual).
|
| 99 |
-
|
| 100 |
-
#-----------------------------------------------------------------------------------------------------
|
| 101 |
-
|
| 102 |
-
# Paso 4: Crear interfaz con Gradio
|
| 103 |
-
# --------------------------------------------
|
| 104 |
-
def create_interface():
|
| 105 |
-
interface = gr.Interface(
|
| 106 |
-
fn=detect_objects, # función que conecta la app con el modelo
|
| 107 |
-
inputs=gr.Image(type="pil"), # entrada: imagen cargada por el usuario
|
| 108 |
-
outputs=gr.Textbox(), # salida: resultados en formato texto
|
| 109 |
-
live=True, # procesa inmediatamente al cargar
|
| 110 |
-
title="Detección de Objetos con Transformers",
|
| 111 |
-
description="Sube una imagen y descubre qué objetos detecta el modelo DETR."
|
| 112 |
-
)
|
| 113 |
-
|
| 114 |
-
interface.launch()
|
| 115 |
-
|
| 116 |
-
|
| 117 |
-
# --------------------------------------------
|
| 118 |
-
# Paso 4: Crear interfaz con Gradio
|
| 119 |
|
| 120 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
| 121 |
interface = gr.Interface(
|
| 122 |
-
fn=detect_objects,
|
| 123 |
-
inputs=gr.Image(type="pil"),
|
| 124 |
-
outputs=gr.Textbox(),
|
| 125 |
-
live=True, # procesa inmediatamente al cargar
|
| 126 |
title="Detección de Objetos con Transformers",
|
| 127 |
description="Sube una imagen y descubre qué objetos detecta el modelo DETR."
|
| 128 |
)
|
| 129 |
-
|
| 130 |
interface.launch()
|
| 131 |
|
|
|
|
|
|
|
|
|
|
| 132 |
|
| 133 |
-
# --------------------------------------------
|
| 134 |
-
# Ejecutar la aplicación
|
| 135 |
-
# --------------------------------------------
|
| 136 |
-
if __name__ == "__main__":
|
| 137 |
-
create_interface()
|
| 138 |
-
|
| 139 |
-
# Interfaz con Gradio (create_interface())
|
| 140 |
-
# Permite subir imágenes y ver los resultados.
|
| 141 |
-
# Entrada: gr.Image(type="pil").
|
| 142 |
-
# Salida: gr.Textbox() con los objetos detectados.
|
| 143 |
-
# live=True: procesa apenas se carga la imagen.
|
| 144 |
-
# Ejecución (if __name__ == "__main__":)
|
| 145 |
-
# Se asegura que la aplicación solo corra al ejecutar python app.py.
|
|
|
|
| 1 |
+
# ----------------------------------------------------------------------------------
|
| 2 |
+
# Carga de librerías necesarias
|
| 3 |
+
# ----------------------------------------------------------------------------------
|
| 4 |
from transformers import DetrImageProcessor, DetrForObjectDetection
|
| 5 |
import torch
|
| 6 |
from PIL import Image
|
| 7 |
import gradio as gr
|
| 8 |
|
| 9 |
+
# Explicación:
|
| 10 |
+
# transformers: librería de Hugging Face con modelos ya entrenados, como DETR.
|
| 11 |
+
# DetrImageProcessor: preprocesa la imagen para que el modelo la entienda.
|
| 12 |
+
# DetrForObjectDetection: modelo DETR preentrenado.
|
| 13 |
+
# torch: PyTorch, biblioteca para cálculos con redes neuronales.
|
| 14 |
+
# PIL.Image: permite trabajar con imágenes.
|
| 15 |
+
# gradio: para crear interfaces gráficas web sencillas.
|
| 16 |
+
|
| 17 |
+
# ----------------------------------------------------------------------------------
|
| 18 |
# Cargar el procesador y el modelo
|
| 19 |
+
# ----------------------------------------------------------------------------------
|
| 20 |
processor = DetrImageProcessor.from_pretrained("facebook/detr-resnet-50")
|
| 21 |
model = DetrForObjectDetection.from_pretrained("facebook/detr-resnet-50")
|
| 22 |
|
| 23 |
# Explicación:
|
| 24 |
+
# Se carga un modelo preentrenado: facebook/detr-resnet-50
|
| 25 |
+
# No necesitamos entrenar nada desde cero.
|
| 26 |
+
# processor prepara la imagen (redimensiona y normaliza).
|
| 27 |
+
# model detecta los objetos.
|
| 28 |
+
# Decisión: usar modelo preentrenado para evitar requerir millones de imágenes y alto poder de cómputo.
|
|
|
|
|
|
|
|
|
|
| 29 |
|
| 30 |
+
# ----------------------------------------------------------------------------------
|
| 31 |
# Función para procesar la imagen
|
| 32 |
+
# ----------------------------------------------------------------------------------
|
| 33 |
def detect_objects(image):
|
| 34 |
# Preprocesamiento
|
| 35 |
inputs = processor(images=image, return_tensors="pt")
|
| 36 |
|
| 37 |
+
# Explicación:
|
| 38 |
+
# detect_objects recibe la imagen y devuelve los objetos encontrados.
|
| 39 |
+
# processor convierte la imagen en tensores que entiende PyTorch.
|
| 40 |
+
# return_tensors="pt" indica que se generan tensores para PyTorch.
|
|
|
|
|
|
|
|
|
|
|
|
|
| 41 |
|
| 42 |
# Detectar objetos
|
| 43 |
with torch.no_grad():
|
| 44 |
outputs = model(**inputs)
|
| 45 |
|
| 46 |
+
# Explicación:
|
| 47 |
+
# torch.no_grad() desactiva el cálculo de gradientes, porque no entrenamos.
|
| 48 |
+
# model(**inputs) corre la imagen por la red neuronal y devuelve predicciones.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 49 |
|
| 50 |
# Filtrar resultados
|
| 51 |
target_sizes = torch.tensor([image.size[::-1]]) # (alto, ancho)
|
| 52 |
results = processor.post_process_object_detection(outputs, target_sizes=target_sizes, threshold=0.9)[0]
|
| 53 |
|
| 54 |
+
# Explicación:
|
| 55 |
+
# image.size[::-1]: invierte ancho y alto (PIL usa ancho,alto y el modelo espera alto, ancho)
|
| 56 |
+
# post_process_object_detection convierte predicciones en resultados entendibles
|
| 57 |
+
# threshold=0.9: solo se aceptan predicciones con 90% de confianza
|
| 58 |
+
# Decisión: umbral alto para reducir falsos positivos
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 59 |
|
| 60 |
+
# Crear lista de resultados con nombre y puntuación
|
| 61 |
labels = results["labels"]
|
| 62 |
scores = results["scores"]
|
| 63 |
boxes = results["boxes"]
|
| 64 |
|
|
|
|
| 65 |
detected_objects = []
|
| 66 |
for score, label, box in zip(scores, labels, boxes):
|
| 67 |
detected_objects.append(f"Objeto: {label}, Score: {score:.2f}, Box: {box.tolist()}")
|
|
|
|
| 69 |
return "\n".join(detected_objects)
|
| 70 |
|
| 71 |
# Explicación:
|
| 72 |
+
# labels: números que representan clases (1=persona, 17=gato, etc.)
|
| 73 |
+
# scores: probabilidad de acierto
|
| 74 |
+
# boxes: coordenadas de la caja delimitadora
|
| 75 |
+
# Se muestra el resultado como texto para entender primero qué devuelve el modelo.
|
| 76 |
+
# Decisión: esto permite ver resultados rápidamente; luego se puede mejorar para dibujar cajas.
|
| 77 |
+
|
| 78 |
+
# ----------------------------------------------------------------------------------
|
| 79 |
+
# Crear interfaz con Gradio
|
| 80 |
+
# ----------------------------------------------------------------------------------
|
| 81 |
+
interface = gr.Interface(
|
| 82 |
+
fn=detect_objects, # conecta la app con el modelo
|
| 83 |
+
inputs=gr.Image(type="pil"), # entrada: imagen cargada por el usuario
|
| 84 |
+
outputs=gr.Textbox(), # salida: resultados en texto
|
| 85 |
+
title="Detección de Objetos con Transformers",
|
| 86 |
+
description="Sube una imagen y descubre qué objetos detecta el modelo DETR.",
|
| 87 |
+
live=True # procesa automáticamente al cargar la imagen
|
| 88 |
+
)
|
| 89 |
|
| 90 |
+
# Explicación:
|
| 91 |
+
# gr.Interface facilita crear interfaces web.
|
| 92 |
+
# live=True: la imagen se procesa inmediatamente.
|
| 93 |
+
# Decisión: usar Gradio para una prueba rápida y despliegue simple.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 94 |
|
| 95 |
+
# ----------------------------------------------------------------------------------
|
| 96 |
+
# Ejecutar la aplicación
|
| 97 |
+
# ----------------------------------------------------------------------------------
|
| 98 |
+
if __name__ == "__main__":
|
| 99 |
+
# Para Hugging Face Space, no usar live=True al lanzar
|
| 100 |
interface = gr.Interface(
|
| 101 |
+
fn=detect_objects,
|
| 102 |
+
inputs=gr.Image(type="pil"),
|
| 103 |
+
outputs=gr.Textbox(),
|
|
|
|
| 104 |
title="Detección de Objetos con Transformers",
|
| 105 |
description="Sube una imagen y descubre qué objetos detecta el modelo DETR."
|
| 106 |
)
|
|
|
|
| 107 |
interface.launch()
|
| 108 |
|
| 109 |
+
# Explicación:
|
| 110 |
+
# La aplicación solo se ejecuta si se corre directamente python app.py
|
| 111 |
+
# Esto evita que se ejecute si el archivo es importado como módulo.
|
| 112 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|