raw
history blame
1.48 kB
import os
from huggingface_hub import InferenceClient
import gradio as gr
from dotenv import load_dotenv
# Cargar variables del .env
load_dotenv()
HF_TOKEN = os.getenv("HF_TOKEN")
if HF_TOKEN is None:
raise ValueError("❌ No se encontró la variable HF_TOKEN en el .env")
# Inicializar cliente de inferencia HF
client = InferenceClient(provider="hf-inference", api_key=HF_TOKEN)
def clasificar_imagen(imagen):
if imagen is None:
return "Sube una imagen para clasificar."
# Guardar temporalmente la imagen para enviarla al cliente
temp_path = "temp_image.jpg"
imagen.save(temp_path)
# Llamada a la API
output = client.image_classification(temp_path, model="google/vit-base-patch16-224")
# Retornar la clasificación más probable
if isinstance(output, list) and len(output) > 0:
resultado = "\n".join([f"{item['label']}: {item['score']:.2f}" for item in output])
else:
resultado = "No se pudo clasificar la imagen."
return resultado
# Interfaz Gradio
with gr.Blocks() as demo:
gr.Markdown("# 🖼️ Clasificador de Imágenes con ViT")
gr.Markdown("Sube una imagen y el modelo ViT-base de Google la clasificará usando HF Inference API gratuita.")
img_input = gr.Image(type="pil", label="Sube tu imagen aquí")
boton = gr.Button("Clasificar Imagen")
salida = gr.Textbox(label="Resultados")
boton.click(fn=clasificar_imagen, inputs=img_input, outputs=salida)
demo.launch()