Spaces:
No application file
No application file
File size: 980 Bytes
43a3eff 6996c97 43a3eff 6996c97 64ead53 6996c97 43a3eff 6996c97 43a3eff 6996c97 43a3eff 6996c97 43a3eff 6996c97 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 |
import gradio as gr
from PIL import Image
from transformers import pipeline
captioner = pipeline("image-to-text", model="Salesforce/blip-image-captioning-large")
def describir(imagen):
if imagen is None:
return "Sube una imagen."
img = Image.fromarray(imagen)
result = captioner(img)[0]["generated_text"]
return result
with gr.Blocks(title="Accesibilidad con Transformers") as demo:
gr.Markdown(
"""
#Accesibilidad con Transformers
Sube una imagen y un modelo Transformer generará una descripción detallada
para mejorar la accesibilidad del contenido visual.
"""
)
with gr.Row():
image_input = gr.Image(type="numpy", label="Sube una Imagen")
text_output = gr.Textbox(label="Descripción Generada")
run_button = gr.Button("Generar Descripción")
run_button.click(
fn=describir,
inputs=image_input,
outputs=text_output
)
demo.launch() |