Update app.py
Browse files
app.py
CHANGED
|
@@ -2,30 +2,37 @@ import streamlit as st
|
|
| 2 |
import google.generativeai as genai
|
| 3 |
import json
|
| 4 |
import re
|
|
|
|
|
|
|
| 5 |
|
| 6 |
# Configurações de chave secreta e API do Google Gemini
|
| 7 |
API_KEY = st.secrets["GOOGLE_API_KEY"]
|
| 8 |
|
| 9 |
-
# Configuração do modelo de IA (fora da main)
|
| 10 |
-
CONFIGURACAO_GERACAO = {
|
| 11 |
-
"temperature": 0.2,
|
| 12 |
-
"top_p": 0.8,
|
| 13 |
-
"top_k": 40,
|
| 14 |
-
"response_mime_type": "text/plain",
|
| 15 |
-
}
|
| 16 |
-
NOME_MODELO = "gemini-2.0-flash-exp"
|
| 17 |
|
| 18 |
-
#
|
| 19 |
st.set_page_config(page_title="Google Gemini 2 PowerShell Command Gen", page_icon="🤖", layout="wide")
|
| 20 |
|
| 21 |
-
|
| 22 |
def enviar_mensagem_para_modelo(mensagem):
|
| 23 |
"""Envia uma mensagem para o modelo de IA e retorna a resposta."""
|
| 24 |
try:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 25 |
MODELO = genai.GenerativeModel(
|
| 26 |
model_name=NOME_MODELO,
|
| 27 |
generation_config=CONFIGURACAO_GERACAO,
|
| 28 |
-
|
|
|
|
| 29 |
resposta = MODELO.start_chat(history=[]).send_message(mensagem)
|
| 30 |
return resposta.text
|
| 31 |
except Exception as e:
|
|
|
|
| 2 |
import google.generativeai as genai
|
| 3 |
import json
|
| 4 |
import re
|
| 5 |
+
import random
|
| 6 |
+
|
| 7 |
|
| 8 |
# Configurações de chave secreta e API do Google Gemini
|
| 9 |
API_KEY = st.secrets["GOOGLE_API_KEY"]
|
| 10 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 11 |
|
| 12 |
+
# Configuração da página
|
| 13 |
st.set_page_config(page_title="Google Gemini 2 PowerShell Command Gen", page_icon="🤖", layout="wide")
|
| 14 |
|
|
|
|
| 15 |
def enviar_mensagem_para_modelo(mensagem):
|
| 16 |
"""Envia uma mensagem para o modelo de IA e retorna a resposta."""
|
| 17 |
try:
|
| 18 |
+
# Gera um random seed para cada requisição
|
| 19 |
+
random_seed = random.randint(0, 100000)
|
| 20 |
+
|
| 21 |
+
# Configurações do modelo de IA (dentro da função)
|
| 22 |
+
CONFIGURACAO_GERACAO = {
|
| 23 |
+
"temperature": 0.7,
|
| 24 |
+
"top_p": 0.8,
|
| 25 |
+
"top_k": 40,
|
| 26 |
+
"response_mime_type": "text/plain",
|
| 27 |
+
"max_output_tokens": 1024,
|
| 28 |
+
"seed": random_seed
|
| 29 |
+
}
|
| 30 |
+
NOME_MODELO = "gemini-2.0-flash-exp"
|
| 31 |
MODELO = genai.GenerativeModel(
|
| 32 |
model_name=NOME_MODELO,
|
| 33 |
generation_config=CONFIGURACAO_GERACAO,
|
| 34 |
+
)
|
| 35 |
+
|
| 36 |
resposta = MODELO.start_chat(history=[]).send_message(mensagem)
|
| 37 |
return resposta.text
|
| 38 |
except Exception as e:
|