eidoc commited on
Commit
25b3ec9
·
verified ·
1 Parent(s): 714e48c

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +19 -28
app.py CHANGED
@@ -4,16 +4,23 @@ from huggingface_hub import InferenceClient
4
  # Configuração da API do Hugging Face
5
  client = InferenceClient("meta-llama/Llama-3.2-3B-Instruct")
6
 
7
- def respond(
8
- message,
9
- history: list[tuple[str, str]],
10
- system_message,
11
- max_tokens,
12
- temperature,
13
- top_p,
14
- ):
 
 
 
 
 
 
 
 
15
  messages = [{"role": "system", "content": system_message}]
16
-
17
  for val in history:
18
  if val[0]:
19
  messages.append({"role": "user", "content": val[0]})
@@ -24,6 +31,7 @@ def respond(
24
 
25
  response = ""
26
 
 
27
  for message in client.chat_completion(
28
  messages,
29
  max_tokens=max_tokens,
@@ -35,26 +43,9 @@ def respond(
35
  response += token
36
  yield response
37
 
38
- # Ajustando o `system_message`
39
  demo = gr.ChatInterface(
40
- respond,
41
- additional_inputs=[
42
- gr.Textbox(
43
- value=(
44
- "Você é um Assistente Médico Virtual. Seu papel é fornecer suporte a médicos e "
45
- "profissionais de saúde com base nas informações fornecidas, incluindo sintomas, "
46
- "HMA (história médica atual) e exame físico. Sua tarefa é gerar um diagnóstico diferencial "
47
- "completo e uma conduta apropriada com base nas informações do paciente. Justifique sua escolha "
48
- "de diagnóstico e conduta clínica. Note que suas recomendações serão validadas por um profissional médico."
49
- ),
50
- label="Mensagem do Sistema",
51
- visible=False
52
- ),
53
- gr.Slider(minimum=1, maximum=2048, value=1024, step=1, label="Max new tokens", visible=False),
54
- gr.Slider(minimum=0.1, maximum=4.0, value=0.6, step=0.1, label="Temperatura", visible=True),
55
- gr.Slider(minimum=0.1, maximum=1.0, value=0.7, step=0.05, label="TOP-P", visible=True),
56
- ],
57
- title="Auxiliar de HMA's e Diagnósticos",
58
  textbox=gr.Textbox(placeholder="Digite os dados clínicos aqui", label="Chat")
59
  )
60
 
 
4
  # Configuração da API do Hugging Face
5
  client = InferenceClient("meta-llama/Llama-3.2-3B-Instruct")
6
 
7
+ # Função de resposta
8
+ def respond(message, history: list[tuple[str, str]]):
9
+ # Configurações padrão
10
+ system_message = (
11
+ "Você é um Assistente Médico Virtual. Seu papel é fornecer suporte a médicos e "
12
+ "profissionais de saúde com base nas informações fornecidas, incluindo sintomas, "
13
+ "HMA (história médica atual) e exame físico. Sua tarefa é gerar um diagnóstico diferencial "
14
+ "completo e uma conduta completa, com medicações, terapias ou outras abordagens, apropriada e"
15
+ "baseada nas principais evidências com base nas informações do paciente. Justifique sua escolha "
16
+ "de diagnóstico e conduta clínica. Note que suas recomendações serão validadas por um profissional médico."
17
+ )
18
+ max_tokens = 1024
19
+ temperature = 0.6
20
+ top_p = 0.7
21
+
22
+ # Montagem das mensagens
23
  messages = [{"role": "system", "content": system_message}]
 
24
  for val in history:
25
  if val[0]:
26
  messages.append({"role": "user", "content": val[0]})
 
31
 
32
  response = ""
33
 
34
+ # Gerar a resposta
35
  for message in client.chat_completion(
36
  messages,
37
  max_tokens=max_tokens,
 
43
  response += token
44
  yield response
45
 
46
+ # Interface gráfica sem additional_inputs visíveis
47
  demo = gr.ChatInterface(
48
+ fn=respond,
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
49
  textbox=gr.Textbox(placeholder="Digite os dados clínicos aqui", label="Chat")
50
  )
51