plstd / app.py
waznauwaga's picture
Update app.py
5320880 verified
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
# Modelo Falcon en Hugging Face
modelo_falcon = "tiiuae/falcon-7b-instruct" # Puedes cambiarlo por otro más ligero
tokenizer = AutoTokenizer.from_pretrained(modelo_falcon)
modelo = AutoModelForCausalLM.from_pretrained(modelo_falcon, device_map="auto")
# Pipeline de generación de texto optimizado
generador = pipeline("text-generation", model=modelo, tokenizer=tokenizer, max_new_tokens=100)
# Función de respuesta
def responder(pregunta):
if not pregunta.strip():
return "Por favor, ingresa una pregunta válida."
respuesta = generador(pregunta, do_sample=True, max_length=150)
return respuesta[0]['generated_text']
# Interfaz en Gradio
with gr.Blocks() as demo:
gr.Markdown("# 🤖 Chatbot con Falcon")
pregunta = gr.Textbox(label="Escribe tu pregunta", placeholder="Ejemplo: ¿Qué es la inteligencia artificial?")
respuesta = gr.Textbox(label="Respuesta", interactive=False)
boton = gr.Button("Enviar")
boton.click(responder, inputs=pregunta, outputs=respuesta)
demo.launch()