Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -117,7 +117,8 @@ def handle_chat(mensagem, historico_chat_gradio):
|
|
| 117 |
**Instrução Final:** Baseado no estado e no histórico, execute o próximo passo do protocolo e gere o JSON de saída.
|
| 118 |
"""
|
| 119 |
|
| 120 |
-
|
|
|
|
| 121 |
response = model.generate_content(prompt_completo)
|
| 122 |
resposta_texto = response.text.strip().replace("```json", "").replace("```", "")
|
| 123 |
decisao_json = json.loads(resposta_texto)
|
|
@@ -137,14 +138,7 @@ def handle_chat(mensagem, historico_chat_gradio):
|
|
| 137 |
else:
|
| 138 |
return "Ocorreu um erro no meu raciocínio. Poderia tentar reformular?"
|
| 139 |
|
| 140 |
-
|
| 141 |
-
print(f"Erro ao processar resposta da API: {e}")
|
| 142 |
-
try:
|
| 143 |
-
print(f"Resposta recebida: {response.text}")
|
| 144 |
-
except:
|
| 145 |
-
print("Não foi possível extrair o texto da resposta.")
|
| 146 |
-
return "Desculpe, tive um problema técnico. Por favor, clique em 'Clear' e tente novamente."
|
| 147 |
-
|
| 148 |
# --- INTERFACE GRADIO ---
|
| 149 |
# REMOVIDO: A função on_clear_chat e a linha iface.clear_btn.click não são mais necessárias.
|
| 150 |
iface = gr.ChatInterface(
|
|
|
|
| 117 |
**Instrução Final:** Baseado no estado e no histórico, execute o próximo passo do protocolo e gere o JSON de saída.
|
| 118 |
"""
|
| 119 |
|
| 120 |
+
if True:
|
| 121 |
+
|
| 122 |
response = model.generate_content(prompt_completo)
|
| 123 |
resposta_texto = response.text.strip().replace("```json", "").replace("```", "")
|
| 124 |
decisao_json = json.loads(resposta_texto)
|
|
|
|
| 138 |
else:
|
| 139 |
return "Ocorreu um erro no meu raciocínio. Poderia tentar reformular?"
|
| 140 |
|
| 141 |
+
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 142 |
# --- INTERFACE GRADIO ---
|
| 143 |
# REMOVIDO: A função on_clear_chat e a linha iface.clear_btn.click não são mais necessárias.
|
| 144 |
iface = gr.ChatInterface(
|