vsalgs commited on
Commit
13b2a66
·
verified ·
1 Parent(s): b1cfba0

dashboard_anova.py

Browse files
Files changed (1) hide show
  1. README.md +292 -0
README.md ADDED
@@ -0,0 +1,292 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ tags:
4
+ - code
5
+ ---
6
+ # streamlit_dashboard_anova.py
7
+ import streamlit as st
8
+ import pandas as pd
9
+ import statsmodels.api as sm
10
+ from statsmodels.formula.api import ols
11
+ from scipy.stats import shapiro, levene, kruskal, anderson
12
+ import matplotlib.pyplot as plt
13
+ import seaborn as sns
14
+ import numpy as np # Adicionado para lidar com potenciais issues numéricas
15
+
16
+
17
+ # --- Funções de Análise (Adaptadas do script anterior) ---
18
+
19
+ @st.cache_data # Cache para otimizar o carregamento de dados
20
+ def load_data():
21
+ """Carrega o Ames Housing Dataset de uma URL e faz uma limpeza básica."""
22
+ urls_tentativas = [
23
+ "https://raw.githubusercontent.com/Viniciusalgueiro/Ameshousing/refs/heads/main/AmesHousing.csv"
24
+ ]
25
+ df = None
26
+ url_carregada = ""
27
+ for url in urls_tentativas:
28
+ try:
29
+ df = pd.read_csv(url)
30
+ url_carregada = url
31
+ break
32
+ except Exception:
33
+ continue # Tenta a próxima URL
34
+
35
+ if df is None:
36
+ st.error("Não foi possível carregar o dataset de nenhuma das URLs conhecidas.")
37
+ return None, None, [], []
38
+
39
+ st.success(f"Dataset carregado com sucesso de: {url_carregada}")
40
+ df.columns = df.columns.str.replace('[^A-Za-z0-9_]+', '', regex=True).str.lower()
41
+
42
+ coluna_preco_nome = None
43
+ if 'saleprice' in df.columns:
44
+ coluna_preco_nome = 'saleprice'
45
+ elif 'sale_price' in df.columns:
46
+ df.rename(columns={'sale_price': 'saleprice'}, inplace=True)
47
+ coluna_preco_nome = 'saleprice'
48
+ # Adicionar mais heurísticas se necessário
49
+
50
+ if coluna_preco_nome:
51
+ df[coluna_preco_nome] = pd.to_numeric(df[coluna_preco_nome], errors='coerce')
52
+ df.dropna(subset=[coluna_preco_nome], inplace=True)
53
+
54
+ colunas_categoricas_potenciais = df.select_dtypes(include=['object']).columns.tolist()
55
+ colunas_numericas_discretas = [col for col in df.select_dtypes(include=np.number).columns
56
+ if df[col].nunique() < 20 and col != coluna_preco_nome] # Exemplo de heurística
57
+ colunas_categoricas_potenciais.extend(colunas_numericas_discretas)
58
+
59
+ # Remover duplicatas e garantir que a coluna de preço não está na lista
60
+ colunas_categoricas_potenciais = sorted(
61
+ list(set(col for col in colunas_categoricas_potenciais if col != coluna_preco_nome)))
62
+
63
+ return df, coluna_preco_nome, colunas_categoricas_potenciais, df.columns.tolist()
64
+
65
+
66
+ def perform_anova_for_variable(df_analysis, var_cat, col_preco):
67
+ """Executa ANOVA e testes de pressupostos para uma variável."""
68
+ results = {"var_cat": var_cat, "plots": {}}
69
+
70
+ df_var = df_analysis[[var_cat, col_preco]].copy()
71
+
72
+ # Converter para categoria se não for e garantir que tem pelo menos 2 níveis
73
+ if df_var[var_cat].dtype != 'object' and not pd.api.types.is_categorical_dtype(df_var[var_cat]):
74
+ df_var[var_cat] = df_var[var_cat].astype('category')
75
+
76
+ df_var.dropna(inplace=True) # Remove NaNs especificamente para este par
77
+
78
+ if df_var[var_cat].nunique() < 2 or len(df_var) < 10: # Mínimo de observações e níveis
79
+ results["error"] = "Dados insuficientes ou poucos níveis para análise após limpeza."
80
+ return results
81
+
82
+ formula = f'{col_preco} ~ C({var_cat})'
83
+ try:
84
+ modelo = ols(formula, data=df_var).fit()
85
+ results["anova_table"] = sm.stats.anova_lm(modelo, typ=2)
86
+
87
+ p_valor_anova = None
88
+ if f'C({var_cat})' in results["anova_table"].index:
89
+ p_valor_anova = results["anova_table"].loc[f'C({var_cat})', 'PR(>F)']
90
+ elif not results["anova_table"].empty:
91
+ p_valor_anova = results["anova_table"]['PR(>F)'].iloc[0]
92
+ results["p_valor_anova"] = p_valor_anova
93
+
94
+ residuos = modelo.resid
95
+ results["residuos_count"] = len(residuos)
96
+
97
+ # 1. Normalidade dos resíduos
98
+ normalidade_ok = False
99
+ if len(residuos) >= 3:
100
+ if len(residuos) <= 5000:
101
+ stat_shapiro, p_shapiro = shapiro(residuos)
102
+ results["shapiro_test"] = (stat_shapiro, p_shapiro)
103
+ if p_shapiro >= 0.05: normalidade_ok = True
104
+ else:
105
+ ad_result = anderson(residuos)
106
+ results["anderson_test"] = ad_result
107
+ # Verifica se a estatística é menor que o valor crítico para 5%
108
+ sig_level_idx = ad_result.significance_level.tolist().index(5.0)
109
+ if ad_result.statistic < ad_result.critical_values[sig_level_idx]:
110
+ normalidade_ok = True
111
+ results["normalidade_ok"] = normalidade_ok
112
+
113
+ # Plots de Normalidade
114
+ fig_norm, ax_norm = plt.subplots(1, 2, figsize=(10, 4))
115
+ if len(residuos) > 1:
116
+ sns.histplot(residuos, kde=True, ax=ax_norm[0], stat="density", bins=30)
117
+ ax_norm[0].set_title(f'Histograma Resíduos ({var_cat})', fontsize=10)
118
+ sm.qqplot(residuos, line='s', ax=ax_norm[1], markerfacecolor="skyblue", markeredgecolor="dodgerblue",
119
+ alpha=0.7)
120
+ ax_norm[1].set_title(f'Q-Q Plot Resíduos ({var_cat})', fontsize=10)
121
+ else:
122
+ ax_norm[0].text(0.5, 0.5, "Poucos dados", ha='center', va='center')
123
+ ax_norm[1].text(0.5, 0.5, "Poucos dados", ha='center', va='center')
124
+ plt.tight_layout()
125
+ results["plots"]["normalidade"] = fig_norm
126
+
127
+ # 2. Homocedasticidade (Teste de Levene)
128
+ homocedasticidade_ok = False
129
+ grupos = [df_var[col_preco][df_var[var_cat] == categoria].dropna() for categoria in df_var[var_cat].unique()]
130
+ grupos_validos = [g for g in grupos if len(g) >= 2] # Levene precisa de grupos com pelo menos 2 obs
131
+ if len(grupos_validos) >= 2:
132
+ stat_levene, p_levene = levene(*grupos_validos)
133
+ results["levene_test"] = (stat_levene, p_levene)
134
+ if p_levene >= 0.05: homocedasticidade_ok = True
135
+ results["homocedasticidade_ok"] = homocedasticidade_ok
136
+
137
+ # 3. Kruskal-Wallis (se necessário)
138
+ if not normalidade_ok or not homocedasticidade_ok:
139
+ if len(grupos_validos) >= 2:
140
+ stat_kruskal, p_kruskal = kruskal(*grupos_validos)
141
+ results["kruskal_test"] = (stat_kruskal, p_kruskal)
142
+
143
+ # Boxplot
144
+ fig_box, ax_box = plt.subplots(figsize=(10, 5))
145
+ unique_cats = df_var[var_cat].nunique()
146
+ order_boxplot = None
147
+ if unique_cats > 5 and unique_cats < 50: # Evitar ordenar muitas categorias
148
+ try:
149
+ order_boxplot = df_var.groupby(var_cat)[col_preco].median().sort_values().index
150
+ except Exception:
151
+ order_boxplot = df_var[var_cat].unique() # Fallback
152
+
153
+ sns.boxplot(x=var_cat, y=col_preco, data=df_var, order=order_boxplot, ax=ax_box, palette="viridis")
154
+ ax_box.set_title(f'Distribuição de {col_preco} por {var_cat}', fontsize=12)
155
+ if unique_cats > 10:
156
+ plt.setp(ax_box.get_xticklabels(), rotation=45, ha='right', fontsize=8)
157
+ else:
158
+ plt.setp(ax_box.get_xticklabels(), fontsize=9)
159
+
160
+ plt.tight_layout()
161
+ results["plots"]["boxplot"] = fig_box
162
+
163
+ except Exception as e:
164
+ results["error"] = str(e)
165
+ return results
166
+
167
+
168
+ # --- Interface do Streamlit ---
169
+ st.set_page_config(layout="wide", page_title="Dashboard de Análise Imobiliária ANOVA")
170
+
171
+ st.title("🏠 Dashboard de Análise Imobiliária com ANOVA")
172
+ st.markdown("""
173
+ Esta ferramenta interativa permite realizar Análises de Variância (ANOVA) no Ames Housing Dataset
174
+ para investigar como diferentes características categóricas impactam o preço de venda dos imóveis.
175
+ """)
176
+
177
+ # Carregar Dados
178
+ df, coluna_preco, colunas_categoricas_selecionaveis, todas_colunas = load_data()
179
+
180
+ if df is not None and coluna_preco is not None:
181
+ st.header("1. Visão Geral dos Dados")
182
+ if st.checkbox("Mostrar amostra dos dados"):
183
+ st.dataframe(df.head())
184
+ st.write(f"Total de registros carregados (após limpeza inicial na coluna '{coluna_preco}'): {len(df)}")
185
+ st.write(f"Coluna alvo (preço): `{coluna_preco}`")
186
+
187
+ st.sidebar.header("⚙️ Configurações da Análise")
188
+ # Seleção de variáveis
189
+ variaveis_selecionadas = st.sidebar.multiselect(
190
+ "Escolha 1 a 3 variáveis categóricas para análise ANOVA:",
191
+ options=colunas_categoricas_selecionaveis,
192
+ max_selections=3
193
+ )
194
+
195
+ if variaveis_selecionadas:
196
+ st.header("2. Resultados da Análise ANOVA")
197
+ st.markdown(f"Analisando o impacto de **{', '.join(variaveis_selecionadas)}** sobre **{coluna_preco}**.")
198
+
199
+ for var_analisada in variaveis_selecionadas:
200
+ st.subheader(f"Análise para: `{var_analisada}`")
201
+
202
+ # Prepara dados específicos para a variável (remove NaNs apenas para as colunas envolvidas)
203
+ df_analise_var = df[[var_analisada, coluna_preco]].copy()
204
+ df_analise_var.dropna(subset=[var_analisada, coluna_preco], inplace=True)
205
+
206
+ if df_analise_var.empty or df_analise_var[var_analisada].nunique() < 2:
207
+ st.warning(f"Não há dados suficientes ou níveis para '{var_analisada}' após limpeza. Pulando.")
208
+ continue
209
+
210
+ resultados_var = perform_anova_for_variable(df_analise_var, var_analisada, coluna_preco)
211
+
212
+ if "error" in resultados_var:
213
+ st.error(f"Erro ao analisar '{var_analisada}': {resultados_var['error']}")
214
+ continue
215
+
216
+ # Exibir Tabela ANOVA
217
+ if "anova_table" in resultados_var:
218
+ st.markdown("**Tabela ANOVA:**")
219
+ st.dataframe(resultados_var["anova_table"])
220
+ p_anova = resultados_var.get("p_valor_anova")
221
+ if p_anova is not None:
222
+ if p_anova < 0.05:
223
+ st.success(
224
+ f"✅ ANOVA: Há uma diferença estatisticamente significativa nos preços (p-valor: {p_anova:.4e}).")
225
+ else:
226
+ st.info(
227
+ f"ℹ️ ANOVA: Não há uma diferença estatisticamente significativa nos preços (p-valor: {p_anova:.4e}).")
228
+
229
+ # Pressupostos e Testes Alternativos
230
+ with st.expander("Verificar Pressupostos da ANOVA e Testes Alternativos"):
231
+ st.markdown("**Normalidade dos Resíduos:**")
232
+ if "shapiro_test" in resultados_var:
233
+ stat, p_val = resultados_var["shapiro_test"]
234
+ st.write(f"Shapiro-Wilk: Estatística={stat:.4f}, P-valor={p_val:.4e}")
235
+ elif "anderson_test" in resultados_var:
236
+ ad_res = resultados_var["anderson_test"]
237
+ st.write(f"Anderson-Darling: Estatística={ad_res.statistic:.4f}")
238
+ # st.write(f" Valores Críticos: {ad_res.critical_values}")
239
+ # st.write(f" Níveis de Significância: {ad_res.significance_level}")
240
+
241
+ if resultados_var.get("normalidade_ok"):
242
+ st.success("✅ Resíduos parecem ser normalmente distribuídos.")
243
+ else:
244
+ st.warning("⚠️ Resíduos NÃO parecem ser normalmente distribuídos.")
245
+
246
+ if "normalidade" in resultados_var["plots"]:
247
+ st.pyplot(resultados_var["plots"]["normalidade"])
248
+
249
+ st.markdown("**Homogeneidade das Variâncias (Homocedasticidade):**")
250
+ if "levene_test" in resultados_var:
251
+ stat_l, p_l = resultados_var["levene_test"]
252
+ st.write(f"Teste de Levene: Estatística={stat_l:.4f}, P-valor={p_l:.4e}")
253
+ if resultados_var.get("homocedasticidade_ok"):
254
+ st.success("✅ Variâncias parecem ser homogêneas.")
255
+ else:
256
+ st.warning("⚠️ Variâncias NÃO parecem ser homogêneas.")
257
+ else:
258
+ st.write("Teste de Levene não pôde ser realizado (dados insuficientes).")
259
+
260
+ if "kruskal_test" in resultados_var:
261
+ st.markdown("**Teste de Kruskal-Wallis (Alternativa Não Paramétrica):**")
262
+ stat_k, p_k = resultados_var["kruskal_test"]
263
+ st.write(f"Kruskal-Wallis: Estatística={stat_k:.4f}, P-valor={p_k:.4e}")
264
+ if p_k < 0.05:
265
+ st.success(f"✅ Kruskal-Wallis: Diferença significativa nas medianas dos preços.")
266
+ else:
267
+ st.info(f"ℹ️ Kruskal-Wallis: Sem diferença significativa nas medianas dos preços.")
268
+
269
+ # Boxplot
270
+ if "boxplot" in resultados_var["plots"]:
271
+ st.markdown("**Distribuição de Preços por Categoria:**")
272
+ st.pyplot(resultados_var["plots"]["boxplot"])
273
+
274
+ st.markdown("---") # Separador entre variáveis
275
+
276
+ elif not variaveis_selecionadas and st.sidebar.button("Analisar", type="primary",
277
+ help="Clique para iniciar após selecionar as variáveis.",
278
+ use_container_width=True, disabled=True):
279
+ # Botão fica desabilitado até selecionar algo, apenas para feedback visual
280
+ pass
281
+
282
+ st.sidebar.markdown("---")
283
+ st.sidebar.markdown("Desenvolvido como parte de uma análise de dados imobiliários.")
284
+
285
+ elif df is None and coluna_preco is None: # Falha no carregamento
286
+ st.warning("Aguardando carregamento dos dados ou verifique os erros acima.")
287
+ else: # Carregou mas não achou coluna de preço ou não há categóricas
288
+ if coluna_preco is None:
289
+ st.error(
290
+ f"A coluna de preço de venda ('saleprice' ou similar) não foi encontrada no dataset. Verifique as colunas disponíveis: {todas_colunas}")
291
+ if not colunas_categoricas_selecionaveis:
292
+ st.error("Nenhuma coluna categórica adequada para análise foi identificada.")