susanazhou commited on
Commit
9d13f0d
verified
1 Parent(s): 108a864

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -2
app.py CHANGED
@@ -1,14 +1,20 @@
1
  import gradio as gr
2
  import torch
3
- from transformers import AutoModelForCausalLM, AutoTokenizer
4
 
5
  # Configuraci贸n del modelo
6
  model_id = "susanazhou/DPOtrained_model_LeIA_final"
7
  device = "cuda" if torch.cuda.is_available() else "cpu"
8
 
 
 
 
9
  # Cargar modelo y tokenizer
10
  tokenizer = AutoTokenizer.from_pretrained(model_id)
11
- model = AutoModelForCausalLM.from_pretrained(model_id).to(device)
 
 
 
12
 
13
  # Funci贸n para responder
14
  def respond(message, history, system_message, max_tokens, temperature, top_p):
@@ -31,6 +37,8 @@ def respond(message, history, system_message, max_tokens, temperature, top_p):
31
  respuesta = decoded[len(prompt):].strip()
32
  return respuesta
33
 
 
 
34
  # Descripci贸n del proyecto
35
  descripcion = """
36
  # 馃挰 LeIA GO: Explorando las variedades del espa帽ol con NLP
 
1
  import gradio as gr
2
  import torch
3
+ from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
4
 
5
  # Configuraci贸n del modelo
6
  model_id = "susanazhou/DPOtrained_model_LeIA_final"
7
  device = "cuda" if torch.cuda.is_available() else "cpu"
8
 
9
+ # Config vac铆a para evitar errores de quantizaci贸n
10
+ quant_config = BitsAndBytesConfig(load_in_4bit=False, load_in_8bit=False)
11
+
12
  # Cargar modelo y tokenizer
13
  tokenizer = AutoTokenizer.from_pretrained(model_id)
14
+ model = AutoModelForCausalLM.from_pretrained(
15
+ model_id,
16
+ quantization_config=quant_config
17
+ ).to(device)
18
 
19
  # Funci贸n para responder
20
  def respond(message, history, system_message, max_tokens, temperature, top_p):
 
37
  respuesta = decoded[len(prompt):].strip()
38
  return respuesta
39
 
40
+
41
+
42
  # Descripci贸n del proyecto
43
  descripcion = """
44
  # 馃挰 LeIA GO: Explorando las variedades del espa帽ol con NLP