ChatBot / app.py
Blandskron's picture
Update app.py
8a2a04e verified
raw
history blame
1.01 kB
from transformers import GPT2LMHeadModel, GPT2Tokenizer
import gradio as gr
# Cargar modelo y tokenizador desde Hugging Face Hub
repo_id = "Blandskron/ModelChatBot" # Nombre del repositorio en Hugging Face Hub
try:
model = GPT2LMHeadModel.from_pretrained(repo_id)
tokenizer = GPT2Tokenizer.from_pretrained(repo_id)
except Exception as e:
print(f"Error al cargar el modelo: {e}")
print("Aseg煤rate de que el repositorio contiene todos los archivos necesarios.")
exit(1)
# Funci贸n para generar respuestas
def responder(pregunta):
inputs = tokenizer(pregunta, return_tensors="pt")
outputs = model.generate(**inputs, max_length=50)
respuesta = tokenizer.decode(outputs[0], skip_special_tokens=True)
return respuesta
# Crear interfaz
iface = gr.Interface(
fn=responder,
inputs="text",
outputs="text",
title="Chatbot de Tecnolog铆a 馃",
description="Preg煤ntame sobre programaci贸n, hardware, software y tendencias tecnol贸gicas."
)
iface.launch()