Spaces:
Sleeping
Sleeping
Update utils.py
Browse files
utils.py
CHANGED
|
@@ -19,24 +19,20 @@ def call_openrouter(prompt, mode):
|
|
| 19 |
|
| 20 |
chain = MODEL_PRIORITY_A if mode == "Alta Precisão (Filológico)" else MODEL_PRIORITY_B
|
| 21 |
|
| 22 |
-
for
|
| 23 |
try:
|
| 24 |
-
#
|
| 25 |
-
# Agora que temos o 'model_to_use', montamos o pacote
|
| 26 |
-
payload = {
|
| 27 |
-
"model": model_to_use,
|
| 28 |
-
"messages": [{"role": "user", "content": prompt}],
|
| 29 |
-
"max_tokens": 4000,
|
| 30 |
-
"temperature": 0.3
|
| 31 |
-
}
|
| 32 |
completion = client.chat.completions.create(
|
| 33 |
-
model=
|
| 34 |
messages=[{"role": "user", "content": prompt}],
|
| 35 |
-
|
|
|
|
|
|
|
| 36 |
)
|
| 37 |
-
return completion.choices[0].message.content,
|
|
|
|
| 38 |
except Exception as e:
|
| 39 |
-
print(f"Falha no modelo {
|
| 40 |
continue
|
| 41 |
|
| 42 |
-
return "Todos os modelos falharam. Verifique seu saldo no OpenRouter.", "Nenhum"
|
|
|
|
| 19 |
|
| 20 |
chain = MODEL_PRIORITY_A if mode == "Alta Precisão (Filológico)" else MODEL_PRIORITY_B
|
| 21 |
|
| 22 |
+
for model_name in chain: # Mudei para model_name para ser bem claro
|
| 23 |
try:
|
| 24 |
+
# Note que agora passamos max_tokens e temperature direto na função do cliente
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 25 |
completion = client.chat.completions.create(
|
| 26 |
+
model=model_name,
|
| 27 |
messages=[{"role": "user", "content": prompt}],
|
| 28 |
+
max_tokens=4000, # Aqui o limite aumentado!
|
| 29 |
+
temperature=0.3, # Precisão filológica
|
| 30 |
+
timeout=60 # Aumentei para 60s porque análises longas demoram
|
| 31 |
)
|
| 32 |
+
return completion.choices[0].message.content, model_name
|
| 33 |
+
|
| 34 |
except Exception as e:
|
| 35 |
+
print(f"Falha no modelo {model_name}: {e}")
|
| 36 |
continue
|
| 37 |
|
| 38 |
+
return "Todos os modelos falharam. Verifique seu saldo ou conexão no OpenRouter.", "Nenhum"
|