jorgeiv500 commited on
Commit
173af48
·
verified ·
1 Parent(s): 7767836

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -22
app.py CHANGED
@@ -1,23 +1,4 @@
1
- # app.py — DeepSeek-OCR (GPU worker) + TxAgent-T1-Llama-3.1-8B (HF Inference conversational)
2
- # ------------------------------------------------------------------------------------------------
3
- # Flujo:
4
- # 1. OCR local con DeepSeek-OCR (CUDA solo dentro de @spaces.GPU).
5
- # 2. Chat médico remoto con TxAgent-T1-Llama-3.1-8B usando provider "featherless-ai"
6
- # vía .chat.completions.create() (tarea conversational).
7
- #
8
- # Variables de entorno recomendadas (Settings → Secrets):
9
- # HF_TOKEN=hf_xxx (OBLIGATORIO para usar inference)
10
- # TX_MODEL_ID=mims-harvard/TxAgent-T1-Llama-3.1-8B
11
- # GEN_MAX_NEW_TOKENS=512
12
- # GEN_TEMPERATURE=0.2
13
- # GEN_TOP_P=0.9
14
- # OCR_REVISION=<commit opcional estable de DeepSeek-OCR>
15
- # OCR_ATTN_IMPL=flash_attention_2 (o "eager" si no hay FlashAttention2)
16
- #
17
- # Nota importante:
18
- # - NO tocamos CUDA en el proceso principal. Solo dentro de ocr_infer().
19
- # - No usamos text_generation. El provider featherless-ai ofrece "conversational".
20
- # - Evitamos el 404 del router hf-inference porque forzamos provider="featherless-ai".
21
  # ------------------------------------------------------------------------------------------------
22
 
23
  import os, tempfile, traceback
@@ -29,7 +10,7 @@ import spaces
29
  from huggingface_hub import InferenceClient
30
 
31
  # =========================
32
- # Configuración del Chat remoto (TxAgent)
33
  # =========================
34
  TX_MODEL_ID = os.getenv("TX_MODEL_ID", "mims-harvard/TxAgent-T1-Llama-3.1-8B")
35
  HF_TOKEN = os.getenv("HF_TOKEN")
@@ -269,7 +250,7 @@ with gr.Blocks(
269
  """
270
  # 📄 DeepSeek-OCR → 💬 Chat Clínico
271
  1. **Sube una imagen** y corre **OCR** (imagen anotada, Markdown y texto).
272
- 2. **Chatea** con **TxAgent**. El chat usa automáticamente el texto detectado por OCR
273
  como contexto clínico.
274
 
275
  ⚠ Uso educativo. No reemplaza consejo médico profesional.
 
1
+
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2
  # ------------------------------------------------------------------------------------------------
3
 
4
  import os, tempfile, traceback
 
10
  from huggingface_hub import InferenceClient
11
 
12
  # =========================
13
+ # Configuración del Chat remoto
14
  # =========================
15
  TX_MODEL_ID = os.getenv("TX_MODEL_ID", "mims-harvard/TxAgent-T1-Llama-3.1-8B")
16
  HF_TOKEN = os.getenv("HF_TOKEN")
 
250
  """
251
  # 📄 DeepSeek-OCR → 💬 Chat Clínico
252
  1. **Sube una imagen** y corre **OCR** (imagen anotada, Markdown y texto).
253
+ 2. El chat usa automáticamente el texto detectado por OCR
254
  como contexto clínico.
255
 
256
  ⚠ Uso educativo. No reemplaza consejo médico profesional.