Spaces:
Runtime error
Runtime error
File size: 1,134 Bytes
bb70b47 5320880 bb70b47 5320880 bb70b47 5320880 484e416 5320880 484e416 5320880 bb70b47 5320880 484e416 5320880 484e416 bb70b47 5320880 bb70b47 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 | import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
# Modelo Falcon en Hugging Face
modelo_falcon = "tiiuae/falcon-7b-instruct" # Puedes cambiarlo por otro más ligero
tokenizer = AutoTokenizer.from_pretrained(modelo_falcon)
modelo = AutoModelForCausalLM.from_pretrained(modelo_falcon, device_map="auto")
# Pipeline de generación de texto optimizado
generador = pipeline("text-generation", model=modelo, tokenizer=tokenizer, max_new_tokens=100)
# Función de respuesta
def responder(pregunta):
if not pregunta.strip():
return "Por favor, ingresa una pregunta válida."
respuesta = generador(pregunta, do_sample=True, max_length=150)
return respuesta[0]['generated_text']
# Interfaz en Gradio
with gr.Blocks() as demo:
gr.Markdown("# 🤖 Chatbot con Falcon")
pregunta = gr.Textbox(label="Escribe tu pregunta", placeholder="Ejemplo: ¿Qué es la inteligencia artificial?")
respuesta = gr.Textbox(label="Respuesta", interactive=False)
boton = gr.Button("Enviar")
boton.click(responder, inputs=pregunta, outputs=respuesta)
demo.launch() |