Update handler.py
Browse files- handler.py +3 -1
handler.py
CHANGED
|
@@ -14,7 +14,7 @@ class EndpointHandler:
|
|
| 14 |
|
| 15 |
# Prompt personalizado para guiar al modelo
|
| 16 |
input_text = (
|
| 17 |
-
"""
|
| 18 |
Por favor, genera un JSON válido basado en las siguientes especificaciones:
|
| 19 |
|
| 20 |
Formato esperado:
|
|
@@ -84,6 +84,8 @@ class EndpointHandler:
|
|
| 84 |
Solo incluye los campos detectados en el texto de entrada.
|
| 85 |
Procesa el siguiente texto: "{data['inputs']}"
|
| 86 |
""")
|
|
|
|
|
|
|
| 87 |
tokens = self.tokenizer(input_text, return_tensors="pt", truncation=True, padding="max_length", max_length=1000)
|
| 88 |
return tokens
|
| 89 |
|
|
|
|
| 14 |
|
| 15 |
# Prompt personalizado para guiar al modelo
|
| 16 |
input_text = (
|
| 17 |
+
f"""
|
| 18 |
Por favor, genera un JSON válido basado en las siguientes especificaciones:
|
| 19 |
|
| 20 |
Formato esperado:
|
|
|
|
| 84 |
Solo incluye los campos detectados en el texto de entrada.
|
| 85 |
Procesa el siguiente texto: "{data['inputs']}"
|
| 86 |
""")
|
| 87 |
+
# Imprimir el texto generado para el prompt
|
| 88 |
+
print(f"Prompt generado para el modelo: {input_text}")
|
| 89 |
tokens = self.tokenizer(input_text, return_tensors="pt", truncation=True, padding="max_length", max_length=1000)
|
| 90 |
return tokens
|
| 91 |
|