File size: 1,134 Bytes
bb70b47
5320880
bb70b47
5320880
 
 
 
bb70b47
5320880
 
 
 
 
484e416
 
5320880
 
 
484e416
5320880
bb70b47
5320880
484e416
5320880
484e416
 
bb70b47
5320880
bb70b47
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline

# Modelo Falcon en Hugging Face
modelo_falcon = "tiiuae/falcon-7b-instruct"  # Puedes cambiarlo por otro más ligero
tokenizer = AutoTokenizer.from_pretrained(modelo_falcon)
modelo = AutoModelForCausalLM.from_pretrained(modelo_falcon, device_map="auto")

# Pipeline de generación de texto optimizado
generador = pipeline("text-generation", model=modelo, tokenizer=tokenizer, max_new_tokens=100)

# Función de respuesta
def responder(pregunta):
    if not pregunta.strip():
        return "Por favor, ingresa una pregunta válida."
    
    respuesta = generador(pregunta, do_sample=True, max_length=150)
    return respuesta[0]['generated_text']

# Interfaz en Gradio
with gr.Blocks() as demo:
    gr.Markdown("# 🤖 Chatbot con Falcon")
    
    pregunta = gr.Textbox(label="Escribe tu pregunta", placeholder="Ejemplo: ¿Qué es la inteligencia artificial?")
    respuesta = gr.Textbox(label="Respuesta", interactive=False)
    
    boton = gr.Button("Enviar")
    boton.click(responder, inputs=pregunta, outputs=respuesta)

demo.launch()