Garabatos commited on
Commit
39c4327
·
1 Parent(s): 707d46d

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -6
app.py CHANGED
@@ -8,7 +8,7 @@ from transformers import AutoModelForCausalLM, AutoTokenizer
8
  import torch
9
 
10
  # ======== Cargar el modelo DialoGPT =========
11
- MODEL_NAME = "Tann-dev/sex-chat-dirty-girlfriend"
12
  tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
13
  model = AutoModelForCausalLM.from_pretrained(MODEL_NAME)
14
 
@@ -24,12 +24,9 @@ def chat(msg: Message):
24
  input_text = msg.text # Texto de entrada
25
  print(f"Mensaje recibido: {input_text}")
26
 
27
- messages = [
28
- {"role": "user", "content": "{input_text}"},
29
- ]
30
-
31
  # Codificar el texto de entrada y agregar el token de fin de secuencia
32
- inputs = tokenizer.encode(messages + tokenizer.eos_token, return_tensors="pt")
33
 
34
  # Generar la respuesta
35
  response_ids = model.generate(inputs,
 
8
  import torch
9
 
10
  # ======== Cargar el modelo DialoGPT =========
11
+ MODEL_NAME = "Novaciano/Qwen2.5_Uncensored_V2_Sexting-GGUF"
12
  tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
13
  model = AutoModelForCausalLM.from_pretrained(MODEL_NAME)
14
 
 
24
  input_text = msg.text # Texto de entrada
25
  print(f"Mensaje recibido: {input_text}")
26
 
27
+
 
 
 
28
  # Codificar el texto de entrada y agregar el token de fin de secuencia
29
+ inputs = tokenizer.encode(input_text + tokenizer.eos_token, return_tensors="pt")
30
 
31
  # Generar la respuesta
32
  response_ids = model.generate(inputs,