habulaj commited on
Commit
56a7353
·
verified ·
1 Parent(s): e1f06ee

Update main.py

Browse files
Files changed (1) hide show
  1. main.py +2 -2
main.py CHANGED
@@ -369,7 +369,7 @@ Se o contexto enviado pelo usuário não for verdadeiro ou estiver impreciso, ig
369
  print(f"🧠 Enviando para Gemini ({request.model})...")
370
 
371
  # Envio do prompt + arquivo (vídeo) pro Gemini
372
- response_gemini = await client.generate_content(prompt, files=[video_path_to_analyze], model=model_obj)
373
 
374
  titles_data = extract_json_from_text(response_gemini.text)
375
  if not titles_data:
@@ -581,7 +581,7 @@ INSTRUÇÕES/CONTEXTO DO USUÁRIO (OPCIONAL): {contexto_final}
581
  {word_level_text}
582
  """
583
  model_obj = get_gemini_model(request.model)
584
- response_gemini = await client.generate_content(prompt, files=[processed_audio_path], model=model_obj)
585
  cleaned_srt = clean_and_validate_srt(response_gemini.text)
586
 
587
  if request.time_start and request.time_start > 0:
 
369
  print(f"🧠 Enviando para Gemini ({request.model})...")
370
 
371
  # Envio do prompt + arquivo (vídeo) pro Gemini
372
+ response_gemini = await client.generate_content(prompt, files=[video_path_to_analyze], model=model_obj, stall_timeout=120)
373
 
374
  titles_data = extract_json_from_text(response_gemini.text)
375
  if not titles_data:
 
581
  {word_level_text}
582
  """
583
  model_obj = get_gemini_model(request.model)
584
+ response_gemini = await client.generate_content(prompt, files=[processed_audio_path], model=model_obj, stall_timeout=120)
585
  cleaned_srt = clean_and_validate_srt(response_gemini.text)
586
 
587
  if request.time_start and request.time_start > 0: