roundb commited on
Commit
5354077
·
verified ·
1 Parent(s): 05a17c7

Upload index.html

Browse files
Files changed (1) hide show
  1. index.html +383 -0
index.html ADDED
@@ -0,0 +1,383 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ <!doctype html>
2
+ <html lang="pt-BR">
3
+ <head>
4
+ <meta charset="utf-8" />
5
+ <meta name="viewport" content="width=device-width, initial-scale=1" />
6
+ <title>Software, Modelos e Conhecimentos Necessários — Superfícies Urbanas</title>
7
+ <style>
8
+ :root { --max: 980px; }
9
+ body { font-family: system-ui, -apple-system, Segoe UI, Roboto, Arial, sans-serif; line-height: 1.45; margin: 0; color: #111; }
10
+ header { padding: 40px 18px 22px; background: #f6f7f9; border-bottom: 1px solid #e5e7eb; }
11
+ main { max-width: var(--max); margin: 0 auto; padding: 26px 18px 60px; }
12
+ h1 { font-size: 1.9rem; margin: 0 0 10px; }
13
+ .subtitle { margin: 0; color: #374151; }
14
+ h2 { margin-top: 34px; border-top: 1px solid #e5e7eb; padding-top: 24px; }
15
+ .pill { display: inline-block; font-size: 0.82rem; padding: 3px 10px; border: 1px solid #e5e7eb; border-radius: 999px; background: #fff; color: #374151; }
16
+ code, pre { font-family: ui-monospace, SFMono-Regular, Menlo, Monaco, Consolas, "Liberation Mono", "Courier New", monospace; }
17
+ pre { padding: 12px 14px; background: #0b1020; color: #e5e7eb; border-radius: 10px; overflow-x: auto; }
18
+ table { width: 100%; border-collapse: collapse; margin: 14px 0 4px; }
19
+ th, td { text-align: left; vertical-align: top; padding: 10px 10px; border-bottom: 1px solid #e5e7eb; }
20
+ th { background: #f9fafb; font-weight: 650; }
21
+ ul { margin: 10px 0 0 18px; }
22
+ .note { padding: 12px 14px; border: 1px solid #e5e7eb; background: #fff; border-radius: 12px; }
23
+ footer { max-width: var(--max); margin: 0 auto; padding: 0 18px 28px; color: #6b7280; }
24
+ </style>
25
+ </head>
26
+ <body>
27
+ <header>
28
+ <div style="max-width: var(--max); margin: 0 auto;">
29
+ <span class="pill">Documento (v2)</span>
30
+ <h1>Software, Modelos e Conhecimentos Necessários</h1>
31
+ <p class="subtitle"><strong>Projeto de Classificação de Superfícies Urbanas</strong> (Mask2Former + ViT + Patches + GPS)</p>
32
+ <p class="subtitle">Versão do documento: <strong>2025-12-15</strong> — foco em execução local (Windows + GPU).</p>
33
+ </div>
34
+ </header>
35
+
36
+ <main>
37
+ <h2>1. Visão geral do pipeline</h2>
38
+ <p><strong>Ordem operacional típica:</strong></p>
39
+ <pre>extrair GPX/GPS (ou EXIF)
40
+ → geocode/organizar
41
+ → segmentar (Mask2Former/ADE20K)
42
+ → dividir em 3 faixas (meio/direita/esquerda)
43
+ → gerar patches (224×224)
44
+ → filtrar por cobertura/dominância
45
+ → treinar ViT v1
46
+ → 2º ciclo (refino/remoção de inconsistências)
47
+ → treinar ViT v2 com dataset mais puro
48
+ → inferência + exportação CSV/GeoJSON</pre>
49
+
50
+ <div class="note">
51
+ <strong>Recomendação prática:</strong> manter logs de versão (Python, torch, torchvision, transformers, CUDA) e um arquivo
52
+ <code>requirements.txt</code> ou export do ambiente (<code>conda env export</code>) junto do projeto.
53
+ </div>
54
+
55
+ <h2>2. Sistema e ambiente de execução</h2>
56
+ <table>
57
+ <thead>
58
+ <tr>
59
+ <th>Item</th>
60
+ <th>Uso no projeto</th>
61
+ <th>Como verificar (exemplos)</th>
62
+ </tr>
63
+ </thead>
64
+ <tbody>
65
+ <tr>
66
+ <td><strong>Sistema Operacional</strong></td>
67
+ <td>Execução local do pipeline e acesso a GPU.</td>
68
+ <td><code>winver</code><br><code>python -c "import platform; print(platform.platform())"</code></td>
69
+ </tr>
70
+ <tr>
71
+ <td><strong>Python (ambiente)</strong></td>
72
+ <td>Scripts de treino/inferência, geração de patches e exportações.</td>
73
+ <td><code>python --version</code><br><code>where python</code></td>
74
+ </tr>
75
+ <tr>
76
+ <td><strong>Gerenciador de ambiente</strong></td>
77
+ <td>Isolamento do ambiente (ex.: <code>pt312</code>).</td>
78
+ <td><code>conda env list</code> ou <code>pip -V</code></td>
79
+ </tr>
80
+ <tr>
81
+ <td><strong>CUDA + Driver NVIDIA</strong></td>
82
+ <td>Aceleração em GPU (treino ViT e inferência).</td>
83
+ <td><code>nvidia-smi</code><br><code>python -c "import torch; print(torch.cuda.is_available())"</code></td>
84
+ </tr>
85
+ </tbody>
86
+ </table>
87
+
88
+ <div class="note">
89
+ <strong>Observação:</strong> se usar AMP/autocast, confirme que o device é CUDA e que a versão do PyTorch está alinhada à sua versão de CUDA/driver.
90
+ </div>
91
+
92
+ <h2>3. Bibliotecas Python principais</h2>
93
+ <table>
94
+ <thead>
95
+ <tr>
96
+ <th>Biblioteca</th>
97
+ <th>Uso no pipeline</th>
98
+ <th>Como verificar</th>
99
+ </tr>
100
+ </thead>
101
+ <tbody>
102
+ <tr>
103
+ <td><strong>torch (PyTorch)</strong></td>
104
+ <td>Treino e inferência do ViT; DataLoader; AMP/autocast.</td>
105
+ <td><code>python -c "import torch; print(torch.__version__)"</code></td>
106
+ </tr>
107
+ <tr>
108
+ <td><strong>torchvision</strong></td>
109
+ <td>Modelo <code>vit_b_16</code>, transforms, utilitários de visão.</td>
110
+ <td><code>python -c "import torchvision; print(torchvision.__version__)"</code></td>
111
+ </tr>
112
+ <tr>
113
+ <td><strong>transformers (Hugging Face)</strong></td>
114
+ <td>Mask2Former + <code>AutoImageProcessor</code>.</td>
115
+ <td><code>python -c "import transformers; print(transformers.__version__)"</code></td>
116
+ </tr>
117
+ <tr>
118
+ <td><strong>Pillow (PIL)</strong></td>
119
+ <td>Leitura/gravação de imagens; recortes de patches.</td>
120
+ <td><code>python -c "from PIL import Image; import PIL; print(PIL.__version__)"</code></td>
121
+ </tr>
122
+ <tr>
123
+ <td><strong>numpy</strong></td>
124
+ <td>Operações com arrays e máscaras (segmentation map).</td>
125
+ <td><code>python -c "import numpy as np; print(np.__version__)"</code></td>
126
+ </tr>
127
+ <tr>
128
+ <td><strong>pandas</strong></td>
129
+ <td>CSV de resultados; consolidações.</td>
130
+ <td><code>python -c "import pandas as pd; print(pd.__version__)"</code></td>
131
+ </tr>
132
+ <tr>
133
+ <td><strong>tqdm</strong></td>
134
+ <td>Barra de progresso e monitoramento.</td>
135
+ <td><code>python -c "import tqdm; print(tqdm.__version__)"</code></td>
136
+ </tr>
137
+ <tr>
138
+ <td><strong>scikit-learn</strong></td>
139
+ <td>Split (train/val/test) e métricas (prec/recall/f1).</td>
140
+ <td><code>python -c "import sklearn; print(sklearn.__version__)"</code></td>
141
+ </tr>
142
+ <tr>
143
+ <td><strong>matplotlib</strong></td>
144
+ <td>Curvas de treino/figuras.</td>
145
+ <td><code>python -c "import matplotlib; print(matplotlib.__version__)"</code></td>
146
+ </tr>
147
+ </tbody>
148
+ </table>
149
+
150
+ <h2>4. Modelos de IA utilizados</h2>
151
+ <table>
152
+ <thead>
153
+ <tr>
154
+ <th>Modelo</th>
155
+ <th>Tipo</th>
156
+ <th>Função no projeto</th>
157
+ <th>Origem / checkpoint</th>
158
+ </tr>
159
+ </thead>
160
+ <tbody>
161
+ <tr>
162
+ <td><strong>Mask2Former</strong></td>
163
+ <td>Swin-Tiny (ADE20K)<br>Segmentação semântica</td>
164
+ <td>Identificar pixels de classes urbanas (ex.: 6=road, 9=grass, 11=sidewalk) para orientar a geração de patches “puros”.</td>
165
+ <td><code>facebook/mask2former-swin-tiny-ade-semantic</code></td>
166
+ </tr>
167
+ <tr>
168
+ <td><strong>Vision Transformer (ViT-B/16)</strong></td>
169
+ <td>Classificação</td>
170
+ <td>Classificar patches em <em>asphalt</em>, <em>brick</em>, <em>grass</em> (modelo treinado/fine-tuned no seu dataset).</td>
171
+ <td>Checkpoint local (<code>.pth</code>)</td>
172
+ </tr>
173
+ </tbody>
174
+ </table>
175
+
176
+ <h2>5. Programas externos e utilitários</h2>
177
+ <table>
178
+ <thead>
179
+ <tr>
180
+ <th>Ferramenta</th>
181
+ <th>Uso</th>
182
+ <th>Como verificar</th>
183
+ </tr>
184
+ </thead>
185
+ <tbody>
186
+ <tr>
187
+ <td><strong>ExifTool</strong></td>
188
+ <td>Extrair coordenadas GPS e metadados dos frames (EXIF).</td>
189
+ <td><code>exiftool -ver</code><br>Config do script: <code>Config.EXIFTOOL_PATH</code></td>
190
+ </tr>
191
+ <tr>
192
+ <td><strong>FFmpeg (opcional)</strong></td>
193
+ <td>Extração de frames a partir de vídeo (quando aplicável).</td>
194
+ <td><code>ffmpeg -version</code></td>
195
+ </tr>
196
+ <tr>
197
+ <td><strong>QGIS (recomendado)</strong></td>
198
+ <td>Validar CSV/GeoJSON em mapa; inspeção espacial; estilos e exportações.</td>
199
+ <td>Ajuda → Sobre (versão) ou <code>qgis --version</code> (se disponível)</td>
200
+ </tr>
201
+ </tbody>
202
+ </table>
203
+
204
+ <h2>6. Formatos de dados e saídas do projeto</h2>
205
+ <p><strong>Entradas comuns:</strong> vídeo <code>.mp4</code> (opcional), frames <code>.jpg/.png</code> com EXIF/GPS, GPX, pastas por classe ADE (ex.: <code>class_6</code>, <code>class_9</code>, <code>class_11</code>), imagens recortadas/resize.</p>
206
+ <p><strong>Saídas:</strong> patches organizados por material (<code>asphalt/brick/grass</code>), CSV com atributos por patch, GeoJSON com pontos (lat/lon) para visualização em mapa.</p>
207
+
208
+ <h2>7. Conhecimentos necessários</h2>
209
+ <ul>
210
+ <li><strong>Visão computacional:</strong> classificação vs. segmentação; o que é um patch; efeitos de resize/normalização; qualidade de dados (frames pretos).</li>
211
+ <li><strong>Deep Learning:</strong> fine-tuning; overfitting; split estratificado; métricas (precisão/recall/F1); threshold de score; batch inference.</li>
212
+ <li><strong>Geodados:</strong> latitude/longitude; CRS (WGS84); GeoJSON; validação em QGIS; noções de ruído de GPS.</li>
213
+ <li><strong>Python:</strong> organização de pastas; leitura/escrita de imagens; manipulação com numpy/pandas; ambientes (conda/pip).</li>
214
+ <li><strong>GPU:</strong> VRAM; ajuste de batch size; autocast/AMP; monitorar <code>nvidia-smi</code>.</li>
215
+ </ul>
216
+
217
+ <h2>8. Checklist de qualidade para patches</h2>
218
+ <p>Antes de retreinar o ViT com patches, aplique filtros automáticos:</p>
219
+ <ul>
220
+ <li>Excluir patches muito escuros/pretos (ex.: média de brilho abaixo de um limiar).</li>
221
+ <li>Excluir patches com pouca textura (desvio padrão muito baixo) quando isso indicar “vazio”.</li>
222
+ <li>Garantir cobertura mínima da classe ADE válida no patch e dominância ≥ 70%.</li>
223
+ <li>Armazenar no CSV: <code>ade_dominant_label</code>, <code>ade_dominant_fraction</code>, <code>score</code>, caminho do patch, frame e coordenadas.</li>
224
+ </ul>
225
+
226
+ <div class="note">
227
+ Se quiser, dá para criar um script de “limpeza de patches” (remove pretos/escuros) antes do treino do ViT v2.
228
+ </div>
229
+
230
+
231
+
232
+ <h2>9. Interface Web do projeto (Gradio)</h2>
233
+ <p>O pipeline termina numa <strong>aplicação web</strong> construída com <strong>Gradio</strong>, permitindo que o usuário execute inferências e explore os resultados em um navegador (localmente e/ou online).</p>
234
+ <ul>
235
+ <li>Upload de imagem/frames (ou seleção de amostras já existentes).</li>
236
+ <li>Execução de inferência (ViT) e visualização de classe prevista vs classe verdadeira (quando disponível).</li>
237
+ <li>Geração de saídas (CSV/HTML/PDF/ZIP) e download pela interface.</li>
238
+ <li>Galeria/grade de resultados e filtros (ex.: apenas erros, apenas acertos).</li>
239
+ </ul>
240
+
241
+ <table>
242
+ <thead>
243
+ <tr>
244
+ <th>Componente</th>
245
+ <th>Uso na interface</th>
246
+ <th>Exemplos</th>
247
+ </tr>
248
+ </thead>
249
+ <tbody>
250
+ <tr>
251
+ <td><strong>gr.Blocks</strong> / <strong>Tabs</strong></td>
252
+ <td>Estrutura da página e separação por módulos do pipeline.</td>
253
+ <td><code>gr.Blocks()</code>, <code>gr.Tab()</code></td>
254
+ </tr>
255
+ <tr>
256
+ <td><strong>Inputs</strong></td>
257
+ <td>Entrada de dados e parâmetros de execução.</td>
258
+ <td><code>gr.Image()</code>, <code>gr.File()</code>, <code>gr.Dropdown()</code>, <code>gr.Slider()</code></td>
259
+ </tr>
260
+ <tr>
261
+ <td><strong>Outputs</strong></td>
262
+ <td>Exibição de resultados e exportações.</td>
263
+ <td><code>gr.Label()</code>, <code>gr.Dataframe()</code>, <code>gr.Gallery()</code>, <code>gr.File()</code></td>
264
+ </tr>
265
+ <tr>
266
+ <td><strong>Fila/concorrência</strong></td>
267
+ <td>Evita travamentos e controla quantas execuções rodam ao mesmo tempo.</td>
268
+ <td><code>demo.queue(concurrency_count=...)</code></td>
269
+ </tr>
270
+ </tbody>
271
+ </table>
272
+
273
+ <div class="note">
274
+ <strong>Boas práticas:</strong> mantenha o Gradio como a “camada final”. A UI chama funções do pipeline (segmentação, geração de patches, inferência e exportação), mas a lógica pesada deve ficar em módulos (ex.: <code>src/</code>).
275
+ </div>
276
+
277
+ <h2>10. Publicação no Hugging Face Spaces</h2>
278
+ <p>O produto final do projeto é um <strong>Hugging Face Space</strong> com a aplicação Gradio rodando online. Isso exige organizar o repositório do Space e garantir que o app não dependa de caminhos locais do Windows (ex.: <code>D:\...</code>).</p>
279
+
280
+ <table>
281
+ <thead>
282
+ <tr>
283
+ <th>Arquivo/pasta</th>
284
+ <th>Obrigatório</th>
285
+ <th>Função</th>
286
+ </tr>
287
+ </thead>
288
+ <tbody>
289
+ <tr>
290
+ <td><code>app.py</code></td>
291
+ <td><strong>Sim</strong></td>
292
+ <td>Entrada do Space (constrói e expõe a UI do Gradio).</td>
293
+ </tr>
294
+ <tr>
295
+ <td><code>requirements.txt</code></td>
296
+ <td><strong>Sim</strong></td>
297
+ <td>Dependências (ex.: <code>gradio</code>, <code>torch</code>, <code>transformers</code>, etc.).</td>
298
+ </tr>
299
+ <tr>
300
+ <td><code>src/</code></td>
301
+ <td>Recomendado</td>
302
+ <td>Módulos do pipeline (IO, pré-processamento, inferência, exportação, utilitários).</td>
303
+ </tr>
304
+ <tr>
305
+ <td><code>assets/</code> / <code>outputs/</code></td>
306
+ <td>Recomendado</td>
307
+ <td>Imagens de exemplo, ícones e diretório de saídas geradas no runtime.</td>
308
+ </tr>
309
+ <tr>
310
+ <td>Modelos (checkpoint)</td>
311
+ <td>Depende</td>
312
+ <td>Podem ficar no repo, ser baixados do Hub, ou serem carregados sob demanda (melhor para manter o Space leve).</td>
313
+ </tr>
314
+ </tbody>
315
+ </table>
316
+
317
+ <ul>
318
+ <li><strong>Paths relativos:</strong> use <code>./dados</code>, <code>./models</code>, <code>./outputs</code> em vez de caminhos absolutos.</li>
319
+ <li><strong>Hardware:</strong> selecione CPU/GPU no Space conforme o custo/necessidade. Otimize batch/resize/AMP para economizar VRAM.</li>
320
+ <li><strong>Persistência:</strong> se precisar manter arquivos entre execuções, use o storage do Space; caso contrário, trate saídas como temporárias.</li>
321
+ <li><strong>Segredos:</strong> tokens/keys devem ir em “Secrets” do Space (nunca commitados).</li>
322
+ </ul>
323
+
324
+ <div class="note">
325
+ <strong>Ponto crítico:</strong> no Space o ambiente é Linux. Ajuste separadores de caminho, permissões e dependências (ex.: wheels do PyTorch/torchvision compatíveis).
326
+ </div>
327
+
328
+ <h2>11. Conhecimentos Web necessários (mínimo útil)</h2>
329
+ <p>Mesmo usando Gradio (que abstrai frontend), é útil dominar o mínimo para operar e depurar uma aplicação web em produção:</p>
330
+
331
+ <table>
332
+ <thead>
333
+ <tr>
334
+ <th>Conhecimento</th>
335
+ <th>Por que importa</th>
336
+ <th>Nível</th>
337
+ </tr>
338
+ </thead>
339
+ <tbody>
340
+ <tr>
341
+ <td><strong>HTTP básico</strong></td>
342
+ <td>Uploads/downloads, erros 404/500, timeouts e limites de request.</td>
343
+ <td>Essencial</td>
344
+ </tr>
345
+ <tr>
346
+ <td><strong>HTML/CSS (noções)</strong></td>
347
+ <td>Entender layout, documentação (README) e pequenas customizações.</td>
348
+ <td>Útil</td>
349
+ </tr>
350
+ <tr>
351
+ <td><strong>Logs e debugging</strong></td>
352
+ <td>Interpretar logs do Space e erros de import/dependências/VRAM.</td>
353
+ <td>Essencial</td>
354
+ </tr>
355
+ <tr>
356
+ <td><strong>Linux básico</strong></td>
357
+ <td>Paths, permissões, execução em container e diferenças para Windows.</td>
358
+ <td>Essencial</td>
359
+ </tr>
360
+ <tr>
361
+ <td><strong>Versionamento (git)</strong></td>
362
+ <td>Atualizar o Space, rastrear mudanças, rollback e releases.</td>
363
+ <td>Essencial</td>
364
+ </tr>
365
+ </tbody>
366
+ </table>
367
+
368
+ <h2>12. Checklist final (do local ao Space)</h2>
369
+ <ul>
370
+ <li><strong>Reprodutibilidade:</strong> rodar localmente apenas com <code>python app.py</code> + <code>requirements.txt</code>.</li>
371
+ <li><strong>Sem hardcode:</strong> remover <code>D:\</code> e usar paths relativos + criação automática de <code>./outputs</code>.</li>
372
+ <li><strong>Performance:</strong> limitar resolução, usar batch pequeno, considerar AMP/autocast e cache de modelo.</li>
373
+ <li><strong>UX:</strong> abas claras (Upload / Inferência / Relatórios), mensagens de erro amigáveis e barras de progresso.</li>
374
+ <li><strong>Deploy:</strong> commit no repo do Space, validar build e revisar logs; documentar uso no <code>README.md</code>.</li>
375
+ </ul>
376
+
377
+ </main>
378
+
379
+ <footer>
380
+ <p>Gerado automaticamente a partir do PDF original.</p>
381
+ </footer>
382
+ </body>
383
+ </html>