Geoeasy commited on
Commit
84c0ef8
·
verified ·
1 Parent(s): 6c3b1c0

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +30 -12
README.md CHANGED
@@ -1,13 +1,31 @@
1
  ---
2
- # --- README.md ---
3
- # Coloque este conteúdo em um arquivo separado chamado README.md na raiz do Space
4
- #
5
- # # Shiny + NVIDIA NIM (OpenAI-compatible) – Hugging Face Space
6
- #
7
- # App Shiny mínima que chama o endpoint OpenAI-compatível da NVIDIA (NIM)
8
- # usando httr2.
9
- #
10
- # ## Arquivos
11
- # - app.R — aplicação Shiny
12
- # - install.R — instala pacotes necessários (shiny, httr2)
13
- #
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ ---
3
+ title: Shiny + NVIDIA NIM Chat
4
+ emoji: 🗨️
5
+ colorFrom: blue
6
+ colorTo: green
7
+ sdk: docker
8
+ sdk_version: "1.7.4"
9
+ app_file: app.R
10
+ pinned: false
11
+ ---
12
+
13
+ # Shiny + NVIDIA NIM (OpenAI-compatible) – Hugging Face Space
14
+
15
+ Aplicação Shiny mínima que chama o endpoint OpenAI-compatível da NVIDIA (NIM) usando `httr2`.
16
+
17
+ ## Como usar no Hugging Face Spaces
18
+
19
+ 1. Crie um Space com Runtime **R (Shiny)**.
20
+ 2. Faça upload de `app.R`, `install.R` e este `README.md`.
21
+ 3. Em *Settings → Variables and secrets*, adicione:
22
+ - `OPENAI_API_KEY` = **sua chave NVIDIA**
23
+ - (opcional) `OPENAI_BASE_URL` = `https://integrate.api.nvidia.com/v1`
24
+ 4. Salve e aguarde o build. Abra o Space e teste.
25
+
26
+ ## Dicas
27
+
28
+ - Ajuste o campo **modelo** na UI (ex.: `meta/llama-3.1-70b-instruct`, `meta/llama-3.2-90b-instruct`, etc.).
29
+ - Alguns modelos exigem `max_tokens` explicitamente.
30
+ - Se preferir, fixe o modelo direto no `app.R`.
31
+