eda_trainning_lora / SPACE_README.md
Ademir
Initial clean commit: scripts and config without logs
d4a00b2

A newer version of the Gradio SDK is available: 6.11.0

Upgrade
metadata
title: Be Analytic EDA Training
colorFrom: gray
colorTo: blue
sdk: docker
pinned: false
app_file: app.py
app_port: 7860
short_description: LoRA SFT Qwen2.5 para EDA; dataset e adapter no Hub.
suggested_hardware: t4-medium
startup_duration_timeout: 2h
models:
  - Qwen/Qwen2.5-1.5B-Instruct
datasets:
  - beAnalytic/eda-training-dataset
tags:
  - llm
  - lora
  - training
  - eda

Treino LoRA (EDA)

Space Docker para treino supervisionado (SFT) com adaptadores LoRA sobre Qwen/Qwen2.5-1.5B-Instruct, com dataset e modelo de saída no Hugging Face Hub.

Secrets (Settings do Space)

Defina no painel do Space: HF_TOKEN, DATASET_REPO, OUTPUT_REPO, MODEL_NAME (opcional; o Dockerfile define padrões).

Weights & Biases (opcional)

No mesmo sitio (Settings > Repository secrets), adiciona:

  • WANDB_API_KEY — token em wandb.ai/authorize. Com isto, o train.py envia metricas para o wandb alem do TensorBoard.
  • Opcional: WANDB_PROJECT (predefinido no codigo: bequick), WANDB_ENTITY (predefinido: amaro-neto-amaro).
  • Para desativar mesmo com chave definida: WANDB_DISABLED=1.
  • Sem API key e sem WANDB_MODE=offline, o treino continua so com TensorBoard.

Em Training Jobs (ou qualquer job que corra o mesmo train.py), define as mesmas variaveis de ambiente no painel do job ou no YAML de configuracao.

Código no monorepo

Referência: ml/configs/huggingface_training_config/.

Deploy no Hub

O README.md desta pasta (no monorepo) já inclui o mesmo YAML e o texto do Space; ao fazer push do subtree para o repositório do Space, o Hub deixa de mostrar empty or missing yaml metadata. Para alinhar só o cartão, podes copiar este ficheiro sobre README.md no clone do Space. Referência: Spaces configuration.

Não uses o modelo com placeholders {{title}}, {{sdk}}, etc.: o YAML tem de ter valores literais.