VeuReu commited on
Commit
3e4b2b0
·
verified ·
1 Parent(s): 5c6fcdb

Upload 4 files

Browse files
Files changed (1) hide show
  1. README.md +12 -8
README.md CHANGED
@@ -1,20 +1,24 @@
1
  ---
2
- title: veureu-svision
3
- emoji: 🦎
4
  colorFrom: purple
5
- colorTo: indigo
6
  sdk: gradio
7
  sdk_version: "4.44.1"
8
  app_file: app.py
9
  pinned: false
10
  ---
11
 
12
- # 🦎 veureu-svision (Salamandra-Vision 7B · ZeroGPU)
13
 
14
  ## Endpoints
15
- - **`/api/predict`** (Gradio): **batch** — entrada `[[<file1>, <file2>, ...], "{...context_json...}", 256, 0.7]` → salida `["desc1", "desc2", ...]`.
16
- - **`/api/describe_raw`** (multipart): `image`, `text`, `max_new_tokens`, `temperature` `{"text": "..."}`.
17
- - **`/api/describe`** (Gradio UI single).
18
 
19
- Compatibilidad con el `engine`: el `VisionClient` del engine llama a **`api_name="/predict"`** con *lista de imágenes* y **`context_json`**.
 
20
 
 
 
 
 
1
  ---
2
+ title: veureu-schat
3
+ emoji: 💬
4
  colorFrom: purple
5
+ colorTo: red
6
  sdk: gradio
7
  sdk_version: "4.44.1"
8
  app_file: app.py
9
  pinned: false
10
  ---
11
 
12
+ # 💬 veureu-schat (Salamandra-7B-Instruct · ZeroGPU)
13
 
14
  ## Endpoints
15
+ - **`/api/predict`** (Gradio): entrada `["<prompt>"]` → salida `"<texto>"`.
16
+ Este es el endpoint que usa el Space **engine**.
17
+ - **`/api/generate`** (Gradio): entrada `[prompt, system, max_new_tokens, temperature, top_p]` → salida `"<texto>"`.
18
 
19
+ ### Variables de entorno
20
+ - `MODEL_ID` (opcional): por defecto `BSC-LT/salamandra-7b-instruct`.
21
 
22
+ ### Notas
23
+ - El modelo usa `chat_template` si existe; si no, se compone un prompt clásico con bloque `system`.
24
+ - GPU: se activa con `@spaces.GPU` automáticamente (ZeroGPU).