Spaces:
Sleeping
Sleeping
| from transformers import AutoTokenizer, AutoModelForSeq2SeqLM, pipeline | |
| import gradio as gr | |
| # Cargar el tokenizer y el modelo desde el repositorio del modelo preentrenado | |
| tokenizer = AutoTokenizer.from_pretrained("mrm8488/bert2bert_shared-spanish-finetuned-summarization") | |
| model = AutoModelForSeq2SeqLM.from_pretrained("mrm8488/bert2bert_shared-spanish-finetuned-summarization") | |
| # Crear el pipeline de resumen utilizando los objetos cargados | |
| resumidor = pipeline("summarization", model=model, tokenizer=tokenizer) | |
| def generar_resumen(texto): | |
| # Generar el resumen usando el pipeline | |
| resumen = resumidor(texto, max_length=130, min_length=30, do_sample=False) | |
| return resumen[0]["summary_text"] | |
| # Crear la interfaz de Gradio | |
| demo = gr.Interface( | |
| fn=generar_resumen, | |
| inputs=gr.Textbox(lines=10, placeholder="Pega aquí un texto largo en español..."), | |
| outputs="text", | |
| title="Generación de Resúmenes Automáticos", | |
| description="Introduce un texto largo en español y obtén un resumen generado automáticamente por un modelo preentrenado." | |
| ) | |
| # Lanzar la aplicación | |
| demo.launch() |