import gradio as gr from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline # Modelo Falcon en Hugging Face modelo_falcon = "tiiuae/falcon-7b-instruct" # Puedes cambiarlo por otro más ligero tokenizer = AutoTokenizer.from_pretrained(modelo_falcon) modelo = AutoModelForCausalLM.from_pretrained(modelo_falcon, device_map="auto") # Pipeline de generación de texto optimizado generador = pipeline("text-generation", model=modelo, tokenizer=tokenizer, max_new_tokens=100) # Función de respuesta def responder(pregunta): if not pregunta.strip(): return "Por favor, ingresa una pregunta válida." respuesta = generador(pregunta, do_sample=True, max_length=150) return respuesta[0]['generated_text'] # Interfaz en Gradio with gr.Blocks() as demo: gr.Markdown("# 🤖 Chatbot con Falcon") pregunta = gr.Textbox(label="Escribe tu pregunta", placeholder="Ejemplo: ¿Qué es la inteligencia artificial?") respuesta = gr.Textbox(label="Respuesta", interactive=False) boton = gr.Button("Enviar") boton.click(responder, inputs=pregunta, outputs=respuesta) demo.launch()