A newer version of the Gradio SDK is available: 6.11.0
title: Be Analytic EDA Training
colorFrom: gray
colorTo: blue
sdk: docker
pinned: false
app_file: app.py
app_port: 7860
short_description: LoRA SFT Qwen2.5 para EDA; dataset e adapter no Hub.
suggested_hardware: t4-medium
startup_duration_timeout: 2h
models:
- Qwen/Qwen2.5-1.5B-Instruct
datasets:
- beAnalytic/eda-training-dataset
tags:
- llm
- lora
- training
- eda
Treino LoRA (EDA)
Space Docker para treino supervisionado (SFT) com adaptadores LoRA sobre Qwen/Qwen2.5-1.5B-Instruct, com dataset e modelo de saída no Hugging Face Hub.
Secrets (Settings do Space)
Defina no painel do Space: HF_TOKEN, DATASET_REPO, OUTPUT_REPO, MODEL_NAME (opcional; o Dockerfile define padrões).
Weights & Biases (opcional)
No mesmo sitio (Settings > Repository secrets), adiciona:
WANDB_API_KEY— token em wandb.ai/authorize. Com isto, otrain.pyenvia metricas para o wandb alem do TensorBoard.- Opcional:
WANDB_PROJECT(predefinido no codigo:bequick),WANDB_ENTITY(predefinido:amaro-neto-amaro). - Para desativar mesmo com chave definida:
WANDB_DISABLED=1. - Sem API key e sem
WANDB_MODE=offline, o treino continua so com TensorBoard.
Em Training Jobs (ou qualquer job que corra o mesmo train.py), define as mesmas variaveis de ambiente no painel do job ou no YAML de configuracao.
Código no monorepo
Referência: ml/configs/huggingface_training_config/.
Deploy no Hub
O README.md desta pasta (no monorepo) já inclui o mesmo YAML e o texto do Space; ao fazer push do subtree para o repositório do Space, o Hub deixa de mostrar empty or missing yaml metadata. Para alinhar só o cartão, podes copiar este ficheiro sobre README.md no clone do Space. Referência: Spaces configuration.
Não uses o modelo com placeholders {{title}}, {{sdk}}, etc.: o YAML tem de ter valores literais.