waznauwaga commited on
Commit
5320880
·
verified ·
1 Parent(s): 484e416

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +17 -25
app.py CHANGED
@@ -1,38 +1,30 @@
1
  import gradio as gr
2
- from transformers import pipeline
3
- from sympy import sympify, simplify
4
 
5
- # Modelos de Hugging Face optimizados
6
- modelos = {
7
- "Matemáticas": lambda pregunta: f"Resultado: {simplify(sympify(pregunta))}" if pregunta else "Ingresa una expresión válida.",
8
- "Historia": pipeline("text-generation", model="datificate/gpt2-small-spanish"),
9
- "Geografía": pipeline("summarization", model="facebook/bart-large-cnn"),
10
- "Lengua Española": pipeline("text-generation", model="datificate/gpt2-small-spanish")
11
- }
12
 
13
- # Función para procesar la pregunta
14
- def responder(pregunta, tema):
 
 
 
15
  if not pregunta.strip():
16
  return "Por favor, ingresa una pregunta válida."
 
 
 
17
 
18
- if tema == "Matemáticas":
19
- return modelos[tema](pregunta)
20
-
21
- try:
22
- respuesta = modelos[tema](pregunta, max_length=50, do_sample=True, return_full_text=True)
23
- return respuesta[0]['generated_text']
24
- except Exception as e:
25
- return f"Error al generar respuesta: {str(e)}"
26
-
27
- # Interfaz Gradio mejorada
28
  with gr.Blocks() as demo:
29
- gr.Markdown("# 📚 Chatbot Multidisciplinario 🧠")
30
 
31
- tema = gr.Dropdown(choices=list(modelos.keys()), label="Selecciona el Tema", value="Matemáticas")
32
- pregunta = gr.Textbox(label="Escribe tu Pregunta", placeholder="Ejemplo: ¿Cuándo fue la Revolución Francesa?")
33
  respuesta = gr.Textbox(label="Respuesta", interactive=False)
34
 
35
  boton = gr.Button("Enviar")
36
- boton.click(responder, inputs=[pregunta, tema], outputs=respuesta)
37
 
38
  demo.launch()
 
1
  import gradio as gr
2
+ from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
 
3
 
4
+ # Modelo Falcon en Hugging Face
5
+ modelo_falcon = "tiiuae/falcon-7b-instruct" # Puedes cambiarlo por otro más ligero
6
+ tokenizer = AutoTokenizer.from_pretrained(modelo_falcon)
7
+ modelo = AutoModelForCausalLM.from_pretrained(modelo_falcon, device_map="auto")
 
 
 
8
 
9
+ # Pipeline de generación de texto optimizado
10
+ generador = pipeline("text-generation", model=modelo, tokenizer=tokenizer, max_new_tokens=100)
11
+
12
+ # Función de respuesta
13
+ def responder(pregunta):
14
  if not pregunta.strip():
15
  return "Por favor, ingresa una pregunta válida."
16
+
17
+ respuesta = generador(pregunta, do_sample=True, max_length=150)
18
+ return respuesta[0]['generated_text']
19
 
20
+ # Interfaz en Gradio
 
 
 
 
 
 
 
 
 
21
  with gr.Blocks() as demo:
22
+ gr.Markdown("# 🤖 Chatbot con Falcon")
23
 
24
+ pregunta = gr.Textbox(label="Escribe tu pregunta", placeholder="Ejemplo: ¿Qué es la inteligencia artificial?")
 
25
  respuesta = gr.Textbox(label="Respuesta", interactive=False)
26
 
27
  boton = gr.Button("Enviar")
28
+ boton.click(responder, inputs=pregunta, outputs=respuesta)
29
 
30
  demo.launch()