Update main.py
Browse files
main.py
CHANGED
|
@@ -369,7 +369,7 @@ Se o contexto enviado pelo usuário não for verdadeiro ou estiver impreciso, ig
|
|
| 369 |
print(f"🧠 Enviando para Gemini ({request.model})...")
|
| 370 |
|
| 371 |
# Envio do prompt + arquivo (vídeo) pro Gemini
|
| 372 |
-
response_gemini = await client.generate_content(prompt, files=[video_path_to_analyze], model=model_obj)
|
| 373 |
|
| 374 |
titles_data = extract_json_from_text(response_gemini.text)
|
| 375 |
if not titles_data:
|
|
@@ -581,7 +581,7 @@ INSTRUÇÕES/CONTEXTO DO USUÁRIO (OPCIONAL): {contexto_final}
|
|
| 581 |
{word_level_text}
|
| 582 |
"""
|
| 583 |
model_obj = get_gemini_model(request.model)
|
| 584 |
-
response_gemini = await client.generate_content(prompt, files=[processed_audio_path], model=model_obj)
|
| 585 |
cleaned_srt = clean_and_validate_srt(response_gemini.text)
|
| 586 |
|
| 587 |
if request.time_start and request.time_start > 0:
|
|
|
|
| 369 |
print(f"🧠 Enviando para Gemini ({request.model})...")
|
| 370 |
|
| 371 |
# Envio do prompt + arquivo (vídeo) pro Gemini
|
| 372 |
+
response_gemini = await client.generate_content(prompt, files=[video_path_to_analyze], model=model_obj, stall_timeout=120)
|
| 373 |
|
| 374 |
titles_data = extract_json_from_text(response_gemini.text)
|
| 375 |
if not titles_data:
|
|
|
|
| 581 |
{word_level_text}
|
| 582 |
"""
|
| 583 |
model_obj = get_gemini_model(request.model)
|
| 584 |
+
response_gemini = await client.generate_content(prompt, files=[processed_audio_path], model=model_obj, stall_timeout=120)
|
| 585 |
cleaned_srt = clean_and_validate_srt(response_gemini.text)
|
| 586 |
|
| 587 |
if request.time_start and request.time_start > 0:
|