--- title: Be Analytic EDA Training colorFrom: gray colorTo: blue sdk: docker pinned: false app_file: app.py app_port: 7860 short_description: LoRA SFT Qwen2.5 para EDA; dataset e adapter no Hub. suggested_hardware: t4-medium startup_duration_timeout: 2h models: - Qwen/Qwen2.5-1.5B-Instruct datasets: - beAnalytic/eda-training-dataset tags: - llm - lora - training - eda --- # Treino LoRA (EDA) Space Docker para treino supervisionado (SFT) com adaptadores LoRA sobre `Qwen/Qwen2.5-1.5B-Instruct`, com dataset e modelo de saída no Hugging Face Hub. ## Secrets (Settings do Space) Defina no painel do Space: `HF_TOKEN`, `DATASET_REPO`, `OUTPUT_REPO`, `MODEL_NAME` (opcional; o Dockerfile define padrões). ### Weights & Biases (opcional) No mesmo sitio (Settings > Repository secrets), adiciona: - `WANDB_API_KEY` — token em [wandb.ai/authorize](https://wandb.ai/authorize). Com isto, o `train.py` envia metricas para o wandb alem do TensorBoard. - Opcional: `WANDB_PROJECT` (predefinido no codigo: `bequick`), `WANDB_ENTITY` (predefinido: `amaro-neto-amaro`). - Para desativar mesmo com chave definida: `WANDB_DISABLED=1`. - Sem API key e sem `WANDB_MODE=offline`, o treino continua so com TensorBoard. Em **Training Jobs** (ou qualquer job que corra o mesmo `train.py`), define as mesmas variaveis de ambiente no painel do job ou no YAML de configuracao. ## Código no monorepo Referência: `ml/configs/huggingface_training_config/`. ## Deploy no Hub O `README.md` desta pasta (no monorepo) já inclui o mesmo YAML e o texto do Space; ao fazer push do subtree para o repositório do Space, o Hub deixa de mostrar *empty or missing yaml metadata*. Para alinhar só o cartão, podes copiar este ficheiro sobre `README.md` no clone do Space. Referência: [Spaces configuration](https://huggingface.co/docs/hub/spaces-config-reference). Não uses o modelo com placeholders `{{title}}`, `{{sdk}}`, etc.: o YAML tem de ter valores literais.