Spaces:
Sleeping
Sleeping
Commit 路
6c1babe
1
Parent(s): 6ba99f6
app.py
CHANGED
|
@@ -8,7 +8,7 @@ HUGGING_FACE_TOKEN = os.getenv("HUGGING_FACE_TOKEN")
|
|
| 8 |
if not HUGGING_FACE_TOKEN:
|
| 9 |
raise ValueError("Error: No se pudo leer el token de Hugging Face.")
|
| 10 |
|
| 11 |
-
API_URL = "https://
|
| 12 |
headers = {"Authorization": f"Bearer {HUGGING_FACE_TOKEN}"}
|
| 13 |
|
| 14 |
# Configurar el logger
|
|
@@ -47,8 +47,8 @@ def mejorar_resolucion(context, borrador, api_url, headers, max_length=1000):
|
|
| 47 |
|
| 48 |
result = query(api_url, headers, payload)
|
| 49 |
|
| 50 |
-
if result and isinstance(result,
|
| 51 |
-
texto_generado = result[
|
| 52 |
context += f"\n\n{texto_generado}"
|
| 53 |
logging.info(f"Prompt: {prompt}\nGenerated: {texto_generado.strip()}")
|
| 54 |
return texto_generado.strip(), context
|
|
@@ -60,13 +60,15 @@ def mejorar_resolucion(context, borrador, api_url, headers, max_length=1000):
|
|
| 60 |
# Funci贸n de predicci贸n para la interfaz de Gradio
|
| 61 |
def predict(message, history):
|
| 62 |
context = (
|
| 63 |
-
"Asume el papel de
|
| 64 |
-
"
|
| 65 |
-
"
|
|
|
|
| 66 |
"Aseg煤rate de que las resoluciones optimizadas sean claras, concisas y libres de ambig眉edades. Utiliza par谩frasis, analog铆as y ejemplos para mejorar la claridad. "
|
| 67 |
-
"
|
| 68 |
-
"
|
| 69 |
-
"
|
|
|
|
| 70 |
)
|
| 71 |
|
| 72 |
history_transformer_format = history + [[message, ""]]
|
|
@@ -75,12 +77,14 @@ def predict(message, history):
|
|
| 75 |
|
| 76 |
resolucion_mejorada, context = mejorar_resolucion(context, message, API_URL, headers, max_length=1000)
|
| 77 |
if resolucion_mejorada:
|
| 78 |
-
|
| 79 |
-
|
|
|
|
|
|
|
|
|
|
| 80 |
else:
|
| 81 |
return "No se pudo mejorar la resoluci贸n."
|
| 82 |
|
| 83 |
# Crear y lanzar la interfaz de Gradio
|
| 84 |
iface = gr.ChatInterface(predict)
|
| 85 |
iface.launch(share=True)
|
| 86 |
-
|
|
|
|
| 8 |
if not HUGGING_FACE_TOKEN:
|
| 9 |
raise ValueError("Error: No se pudo leer el token de Hugging Face.")
|
| 10 |
|
| 11 |
+
API_URL = "https://hf.space/embed/locorene1000/API/+/api/predict"
|
| 12 |
headers = {"Authorization": f"Bearer {HUGGING_FACE_TOKEN}"}
|
| 13 |
|
| 14 |
# Configurar el logger
|
|
|
|
| 47 |
|
| 48 |
result = query(api_url, headers, payload)
|
| 49 |
|
| 50 |
+
if result and isinstance(result, dict) and 'generated_text' in result:
|
| 51 |
+
texto_generado = result['generated_text']
|
| 52 |
context += f"\n\n{texto_generado}"
|
| 53 |
logging.info(f"Prompt: {prompt}\nGenerated: {texto_generado.strip()}")
|
| 54 |
return texto_generado.strip(), context
|
|
|
|
| 60 |
# Funci贸n de predicci贸n para la interfaz de Gradio
|
| 61 |
def predict(message, history):
|
| 62 |
context = (
|
| 63 |
+
"Asume el papel de un Ministro de la Corte Suprema especializado en derecho civil, laboral y concursal. "
|
| 64 |
+
"Tu meta es revisar y mejorar resoluciones judiciales utilizando procesamiento de lenguaje natural (PLN). "
|
| 65 |
+
"Mant茅n un tono formal, preciso y autoritativo en todo momento. Sigue estrictamente las gu铆as de estilo proporcionadas. "
|
| 66 |
+
"Simplifica oraciones complejas y elimina redundancias. Adapta la terminolog铆a al contexto legal chileno. "
|
| 67 |
"Aseg煤rate de que las resoluciones optimizadas sean claras, concisas y libres de ambig眉edades. Utiliza par谩frasis, analog铆as y ejemplos para mejorar la claridad. "
|
| 68 |
+
"Realiza una revisi贸n gramatical y estil铆stica para asegurar precisi贸n y formalidad. Justifica las modificaciones necesarias. "
|
| 69 |
+
"Explica c贸mo cada mejora contribuye a la formalidad, precisi贸n y claridad. Proporciona la Resoluci贸n Optimizada. "
|
| 70 |
+
"Verifica que la resoluci贸n optimizada cumpla con los criterios de claridad, precisi贸n y formalidad. "
|
| 71 |
+
"Asegura que todas las modificaciones est茅n justificadas y sean comprensibles."
|
| 72 |
)
|
| 73 |
|
| 74 |
history_transformer_format = history + [[message, ""]]
|
|
|
|
| 77 |
|
| 78 |
resolucion_mejorada, context = mejorar_resolucion(context, message, API_URL, headers, max_length=1000)
|
| 79 |
if resolucion_mejorada:
|
| 80 |
+
resultado_ministro = query(API_URL, headers, {"inputs": resolucion_mejorada})
|
| 81 |
+
resolucion_final = resultado_ministro.get("generated_text", resolucion_mejorada)
|
| 82 |
+
comentarios = resultado_ministro.get("comentarios", "")
|
| 83 |
+
history.append([message, resolucion_final])
|
| 84 |
+
return f"Resoluci贸n final: {resolucion_final}\n\nComentarios del Ministro: {comentarios}"
|
| 85 |
else:
|
| 86 |
return "No se pudo mejorar la resoluci贸n."
|
| 87 |
|
| 88 |
# Crear y lanzar la interfaz de Gradio
|
| 89 |
iface = gr.ChatInterface(predict)
|
| 90 |
iface.launch(share=True)
|
|
|