Allex21 commited on
Commit
422f544
·
verified ·
1 Parent(s): e277bfd

Delete README.md

Browse files
Files changed (1) hide show
  1. README.md +0 -91
README.md DELETED
@@ -1,91 +0,0 @@
1
- # 🎨 LoRA Image Trainer
2
-
3
- Uma ferramenta completa para criação e treinamento de LoRA (Low-Rank Adaptation) para modelos de geração de imagens, otimizada para baixo uso de GPU e compatível com dispositivos móveis.
4
-
5
- ## ✨ Características Principais
6
-
7
- - **🔋 Otimizado para Baixa GPU**: Utiliza técnicas avançadas de otimização de memória
8
- - **📱 Interface Responsiva**: Funciona perfeitamente em smartphones e tablets
9
- - **⚡ Treinamento Eficiente**: Baseado nas bibliotecas Diffusers e PEFT do Hugging Face
10
- - **🎛️ Altamente Configurável**: Controle total sobre parâmetros de treinamento
11
- - **☁️ Deploy Fácil**: Pronto para implantação no Hugging Face Spaces
12
- - **🎨 Focado em Imagens**: Especificamente projetado para modelos de difusão
13
-
14
- ## 🚀 Como Usar
15
-
16
- ### 1. Preparação das Imagens
17
- - Colete 3-50 imagens de alta qualidade
18
- - Mantenha consistência no estilo/conceito
19
- - Resolução recomendada: 512x512 ou superior
20
- - Formatos suportados: JPG, PNG
21
-
22
- ### 2. Configuração do Treinamento
23
- - Escolha um modelo base (recomendado: Stable Diffusion 1.5)
24
- - Defina uma trigger word única
25
- - Configure parâmetros LoRA (valores padrão funcionam bem)
26
- - Ajuste parâmetros de treinamento conforme necessário
27
-
28
- ### 3. Monitoramento
29
- - Acompanhe o progresso em tempo real
30
- - Visualize logs detalhados do treinamento
31
- - Receba notificações de conclusão
32
-
33
- ### 4. Download e Uso
34
- - Baixe o arquivo .safetensors do LoRA treinado
35
- - Use em ComfyUI, Automatic1111, SeaArt ou outras ferramentas
36
- - Aplique a trigger word nas suas gerações
37
-
38
- ## 🛠️ Tecnologias Utilizadas
39
-
40
- - **Hugging Face Diffusers**: Pipeline de modelos de difusão
41
- - **PEFT**: Treinamento eficiente de parâmetros
42
- - **PyTorch**: Framework de deep learning
43
- - **Gradio**: Interface web interativa
44
- - **Accelerate**: Otimizações de treinamento
45
-
46
- ## ⚙️ Parâmetros de Configuração
47
-
48
- ### Parâmetros LoRA
49
- - **r (Rank)**: 4-128 (padrão: 16) - Controla a capacidade do modelo
50
- - **LoRA Alpha**: 1-128 (padrão: 32) - Fator de escala
51
- - **LoRA Dropout**: 0.0-0.5 (padrão: 0.1) - Regularização
52
-
53
- ### Parâmetros de Treinamento
54
- - **Épocas**: 5-50 (padrão: 10) - Número de ciclos de treinamento
55
- - **Taxa de Aprendizado**: 1e-5 a 1e-3 (padrão: 1e-4)
56
- - **Batch Size**: 1-8 (padrão: 1) - Para GPUs com pouca VRAM
57
- - **Resolução**: 512/768/1024 (padrão: 512)
58
-
59
- ## 🎯 Otimizações para Baixa GPU
60
-
61
- ### Técnicas Implementadas
62
- - **Mixed Precision (FP16)**: Reduz uso de VRAM pela metade
63
- - **Gradient Checkpointing**: Troca tempo por memória
64
- - **Attention Slicing**: Processa attention em fatias menores
65
- - **Memory Efficient Attention**: Usa xformers quando disponível
66
- - **Gradient Accumulation**: Simula batches maiores
67
-
68
- ### Requisitos Mínimos
69
- - **GPU**: 4GB VRAM (recomendado: 6GB+)
70
- - **RAM**: 8GB (recomendado: 16GB+)
71
- - **Armazenamento**: 10GB livres
72
-
73
- ## 📱 Compatibilidade Móvel
74
-
75
- ### Interface Responsiva
76
- - Layout adaptativo para telas pequenas
77
- - Botões otimizados para toque
78
- - Navegação simplificada em tablets/smartphones
79
- - Upload de imagens via câmera ou galeria
80
-
81
- ### Processamento no Servidor
82
- - Todo treinamento ocorre no backend
83
- - Dispositivo móvel atua como cliente leve
84
- - Comunicação otimizada via APIs
85
-
86
- ## 🔧 Instalação e Deploy
87
-
88
- ### Deploy no Hugging Face Spaces
89
-
90
- 1. **Criar um novo Space**:
91
- #