Orphen2024's picture
Create app.py
ad47489 verified
raw
history blame contribute delete
915 Bytes
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer
# Carga el modelo GPT-J desde Hugging Face
model_name = "EleutherAI/gpt-j-6B"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Funci贸n para generar texto
def generar_articulo(prompt):
input_ids = tokenizer.encode(prompt, return_tensors="pt")
output = model.generate(input_ids, max_length=300, num_return_sequences=1)
return tokenizer.decode(output[0], skip_special_tokens=True)
# Interfaz de Gradio
interface = gr.Interface(
fn=generar_articulo, # Funci贸n que genera el texto
inputs="text", # Entrada: caja de texto
outputs="text", # Salida: texto generado
title="Generador de Art铆culos SEO con GPT-J",
description="Introduce un tema para generar un art铆culo optimizado para SEO."
)
# Ejecuta la aplicaci贸n
interface.launch()