AniseF commited on
Commit
87d95d9
·
verified ·
1 Parent(s): b483e54

Update utils.py

Browse files
Files changed (1) hide show
  1. utils.py +10 -14
utils.py CHANGED
@@ -19,24 +19,20 @@ def call_openrouter(prompt, mode):
19
 
20
  chain = MODEL_PRIORITY_A if mode == "Alta Precisão (Filológico)" else MODEL_PRIORITY_B
21
 
22
- for model in chain:
23
  try:
24
- # === O PAYLOAD ENTRA AQUI ===
25
- # Agora que temos o 'model_to_use', montamos o pacote
26
- payload = {
27
- "model": model_to_use,
28
- "messages": [{"role": "user", "content": prompt}],
29
- "max_tokens": 4000,
30
- "temperature": 0.3
31
- }
32
  completion = client.chat.completions.create(
33
- model=model,
34
  messages=[{"role": "user", "content": prompt}],
35
- timeout=40
 
 
36
  )
37
- return completion.choices[0].message.content, model
 
38
  except Exception as e:
39
- print(f"Falha no modelo {model}: {e}")
40
  continue
41
 
42
- return "Todos os modelos falharam. Verifique seu saldo no OpenRouter.", "Nenhum"
 
19
 
20
  chain = MODEL_PRIORITY_A if mode == "Alta Precisão (Filológico)" else MODEL_PRIORITY_B
21
 
22
+ for model_name in chain: # Mudei para model_name para ser bem claro
23
  try:
24
+ # Note que agora passamos max_tokens e temperature direto na função do cliente
 
 
 
 
 
 
 
25
  completion = client.chat.completions.create(
26
+ model=model_name,
27
  messages=[{"role": "user", "content": prompt}],
28
+ max_tokens=4000, # Aqui o limite aumentado!
29
+ temperature=0.3, # Precisão filológica
30
+ timeout=60 # Aumentei para 60s porque análises longas demoram
31
  )
32
+ return completion.choices[0].message.content, model_name
33
+
34
  except Exception as e:
35
+ print(f"Falha no modelo {model_name}: {e}")
36
  continue
37
 
38
+ return "Todos os modelos falharam. Verifique seu saldo ou conexão no OpenRouter.", "Nenhum"