eda_trainning_lora / SPACE_README.md
Ademir
Initial clean commit: scripts and config without logs
d4a00b2
---
title: Be Analytic EDA Training
colorFrom: gray
colorTo: blue
sdk: docker
pinned: false
app_file: app.py
app_port: 7860
short_description: LoRA SFT Qwen2.5 para EDA; dataset e adapter no Hub.
suggested_hardware: t4-medium
startup_duration_timeout: 2h
models:
- Qwen/Qwen2.5-1.5B-Instruct
datasets:
- beAnalytic/eda-training-dataset
tags:
- llm
- lora
- training
- eda
---
# Treino LoRA (EDA)
Space Docker para treino supervisionado (SFT) com adaptadores LoRA sobre `Qwen/Qwen2.5-1.5B-Instruct`, com dataset e modelo de saída no Hugging Face Hub.
## Secrets (Settings do Space)
Defina no painel do Space: `HF_TOKEN`, `DATASET_REPO`, `OUTPUT_REPO`, `MODEL_NAME` (opcional; o Dockerfile define padrões).
### Weights & Biases (opcional)
No mesmo sitio (Settings > Repository secrets), adiciona:
- `WANDB_API_KEY` — token em [wandb.ai/authorize](https://wandb.ai/authorize). Com isto, o `train.py` envia metricas para o wandb alem do TensorBoard.
- Opcional: `WANDB_PROJECT` (predefinido no codigo: `bequick`), `WANDB_ENTITY` (predefinido: `amaro-neto-amaro`).
- Para desativar mesmo com chave definida: `WANDB_DISABLED=1`.
- Sem API key e sem `WANDB_MODE=offline`, o treino continua so com TensorBoard.
Em **Training Jobs** (ou qualquer job que corra o mesmo `train.py`), define as mesmas variaveis de ambiente no painel do job ou no YAML de configuracao.
## Código no monorepo
Referência: `ml/configs/huggingface_training_config/`.
## Deploy no Hub
O `README.md` desta pasta (no monorepo) já inclui o mesmo YAML e o texto do Space; ao fazer push do subtree para o repositório do Space, o Hub deixa de mostrar *empty or missing yaml metadata*. Para alinhar só o cartão, podes copiar este ficheiro sobre `README.md` no clone do Space. Referência: [Spaces configuration](https://huggingface.co/docs/hub/spaces-config-reference).
Não uses o modelo com placeholders `{{title}}`, `{{sdk}}`, etc.: o YAML tem de ter valores literais.