File size: 13,885 Bytes
13b2a66
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
# streamlit_dashboard_anova.py
import streamlit as st
import pandas as pd
import statsmodels.api as sm
from statsmodels.formula.api import ols
from scipy.stats import shapiro, levene, kruskal, anderson
import matplotlib.pyplot as plt
import seaborn as sns
import numpy as np  # Adicionado para lidar com potenciais issues numéricas


# --- Funções de Análise (Adaptadas do script anterior) ---

@st.cache_data  # Cache para otimizar o carregamento de dados
def load_data():
    """Carrega o Ames Housing Dataset de uma URL e faz uma limpeza básica."""
    urls_tentativas = [
        "https://raw.githubusercontent.com/Viniciusalgueiro/Ameshousing/refs/heads/main/AmesHousing.csv"
    ]
    df = None
    url_carregada = ""
    for url in urls_tentativas:
        try:
            df = pd.read_csv(url)
            url_carregada = url
            break
        except Exception:
            continue  # Tenta a próxima URL

    if df is None:
        st.error("Não foi possível carregar o dataset de nenhuma das URLs conhecidas.")
        return None, None, [], []

    st.success(f"Dataset carregado com sucesso de: {url_carregada}")
    df.columns = df.columns.str.replace('[^A-Za-z0-9_]+', '', regex=True).str.lower()

    coluna_preco_nome = None
    if 'saleprice' in df.columns:
        coluna_preco_nome = 'saleprice'
    elif 'sale_price' in df.columns:
        df.rename(columns={'sale_price': 'saleprice'}, inplace=True)
        coluna_preco_nome = 'saleprice'
    # Adicionar mais heurísticas se necessário

    if coluna_preco_nome:
        df[coluna_preco_nome] = pd.to_numeric(df[coluna_preco_nome], errors='coerce')
        df.dropna(subset=[coluna_preco_nome], inplace=True)

    colunas_categoricas_potenciais = df.select_dtypes(include=['object']).columns.tolist()
    colunas_numericas_discretas = [col for col in df.select_dtypes(include=np.number).columns
                                   if df[col].nunique() < 20 and col != coluna_preco_nome]  # Exemplo de heurística
    colunas_categoricas_potenciais.extend(colunas_numericas_discretas)

    # Remover duplicatas e garantir que a coluna de preço não está na lista
    colunas_categoricas_potenciais = sorted(
        list(set(col for col in colunas_categoricas_potenciais if col != coluna_preco_nome)))

    return df, coluna_preco_nome, colunas_categoricas_potenciais, df.columns.tolist()


def perform_anova_for_variable(df_analysis, var_cat, col_preco):
    """Executa ANOVA e testes de pressupostos para uma variável."""
    results = {"var_cat": var_cat, "plots": {}}

    df_var = df_analysis[[var_cat, col_preco]].copy()

    # Converter para categoria se não for e garantir que tem pelo menos 2 níveis
    if df_var[var_cat].dtype != 'object' and not pd.api.types.is_categorical_dtype(df_var[var_cat]):
        df_var[var_cat] = df_var[var_cat].astype('category')

    df_var.dropna(inplace=True)  # Remove NaNs especificamente para este par

    if df_var[var_cat].nunique() < 2 or len(df_var) < 10:  # Mínimo de observações e níveis
        results["error"] = "Dados insuficientes ou poucos níveis para análise após limpeza."
        return results

    formula = f'{col_preco} ~ C({var_cat})'
    try:
        modelo = ols(formula, data=df_var).fit()
        results["anova_table"] = sm.stats.anova_lm(modelo, typ=2)

        p_valor_anova = None
        if f'C({var_cat})' in results["anova_table"].index:
            p_valor_anova = results["anova_table"].loc[f'C({var_cat})', 'PR(>F)']
        elif not results["anova_table"].empty:
            p_valor_anova = results["anova_table"]['PR(>F)'].iloc[0]
        results["p_valor_anova"] = p_valor_anova

        residuos = modelo.resid
        results["residuos_count"] = len(residuos)

        # 1. Normalidade dos resíduos
        normalidade_ok = False
        if len(residuos) >= 3:
            if len(residuos) <= 5000:
                stat_shapiro, p_shapiro = shapiro(residuos)
                results["shapiro_test"] = (stat_shapiro, p_shapiro)
                if p_shapiro >= 0.05: normalidade_ok = True
            else:
                ad_result = anderson(residuos)
                results["anderson_test"] = ad_result
                # Verifica se a estatística é menor que o valor crítico para 5%
                sig_level_idx = ad_result.significance_level.tolist().index(5.0)
                if ad_result.statistic < ad_result.critical_values[sig_level_idx]:
                    normalidade_ok = True
        results["normalidade_ok"] = normalidade_ok

        # Plots de Normalidade
        fig_norm, ax_norm = plt.subplots(1, 2, figsize=(10, 4))
        if len(residuos) > 1:
            sns.histplot(residuos, kde=True, ax=ax_norm[0], stat="density", bins=30)
            ax_norm[0].set_title(f'Histograma Resíduos ({var_cat})', fontsize=10)
            sm.qqplot(residuos, line='s', ax=ax_norm[1], markerfacecolor="skyblue", markeredgecolor="dodgerblue",
                      alpha=0.7)
            ax_norm[1].set_title(f'Q-Q Plot Resíduos ({var_cat})', fontsize=10)
        else:
            ax_norm[0].text(0.5, 0.5, "Poucos dados", ha='center', va='center')
            ax_norm[1].text(0.5, 0.5, "Poucos dados", ha='center', va='center')
        plt.tight_layout()
        results["plots"]["normalidade"] = fig_norm

        # 2. Homocedasticidade (Teste de Levene)
        homocedasticidade_ok = False
        grupos = [df_var[col_preco][df_var[var_cat] == categoria].dropna() for categoria in df_var[var_cat].unique()]
        grupos_validos = [g for g in grupos if len(g) >= 2]  # Levene precisa de grupos com pelo menos 2 obs
        if len(grupos_validos) >= 2:
            stat_levene, p_levene = levene(*grupos_validos)
            results["levene_test"] = (stat_levene, p_levene)
            if p_levene >= 0.05: homocedasticidade_ok = True
        results["homocedasticidade_ok"] = homocedasticidade_ok

        # 3. Kruskal-Wallis (se necessário)
        if not normalidade_ok or not homocedasticidade_ok:
            if len(grupos_validos) >= 2:
                stat_kruskal, p_kruskal = kruskal(*grupos_validos)
                results["kruskal_test"] = (stat_kruskal, p_kruskal)

        # Boxplot
        fig_box, ax_box = plt.subplots(figsize=(10, 5))
        unique_cats = df_var[var_cat].nunique()
        order_boxplot = None
        if unique_cats > 5 and unique_cats < 50:  # Evitar ordenar muitas categorias
            try:
                order_boxplot = df_var.groupby(var_cat)[col_preco].median().sort_values().index
            except Exception:
                order_boxplot = df_var[var_cat].unique()  # Fallback

        sns.boxplot(x=var_cat, y=col_preco, data=df_var, order=order_boxplot, ax=ax_box, palette="viridis")
        ax_box.set_title(f'Distribuição de {col_preco} por {var_cat}', fontsize=12)
        if unique_cats > 10:
            plt.setp(ax_box.get_xticklabels(), rotation=45, ha='right', fontsize=8)
        else:
            plt.setp(ax_box.get_xticklabels(), fontsize=9)

        plt.tight_layout()
        results["plots"]["boxplot"] = fig_box

    except Exception as e:
        results["error"] = str(e)
    return results


# --- Interface do Streamlit ---
st.set_page_config(layout="wide", page_title="Dashboard de Análise Imobiliária ANOVA")

st.title("🏠 Dashboard de Análise Imobiliária com ANOVA")
st.markdown("""
Esta ferramenta interativa permite realizar Análises de Variância (ANOVA) no Ames Housing Dataset
para investigar como diferentes características categóricas impactam o preço de venda dos imóveis.
""")

# Carregar Dados
df, coluna_preco, colunas_categoricas_selecionaveis, todas_colunas = load_data()

if df is not None and coluna_preco is not None:
    st.header("1. Visão Geral dos Dados")
    if st.checkbox("Mostrar amostra dos dados"):
        st.dataframe(df.head())
    st.write(f"Total de registros carregados (após limpeza inicial na coluna '{coluna_preco}'): {len(df)}")
    st.write(f"Coluna alvo (preço): `{coluna_preco}`")

    st.sidebar.header("⚙️ Configurações da Análise")
    # Seleção de variáveis
    variaveis_selecionadas = st.sidebar.multiselect(
        "Escolha 1 a 3 variáveis categóricas para análise ANOVA:",
        options=colunas_categoricas_selecionaveis,
        max_selections=3
    )

    if variaveis_selecionadas:
        st.header("2. Resultados da Análise ANOVA")
        st.markdown(f"Analisando o impacto de **{', '.join(variaveis_selecionadas)}** sobre **{coluna_preco}**.")

        for var_analisada in variaveis_selecionadas:
            st.subheader(f"Análise para: `{var_analisada}`")

            # Prepara dados específicos para a variável (remove NaNs apenas para as colunas envolvidas)
            df_analise_var = df[[var_analisada, coluna_preco]].copy()
            df_analise_var.dropna(subset=[var_analisada, coluna_preco], inplace=True)

            if df_analise_var.empty or df_analise_var[var_analisada].nunique() < 2:
                st.warning(f"Não há dados suficientes ou níveis para '{var_analisada}' após limpeza. Pulando.")
                continue

            resultados_var = perform_anova_for_variable(df_analise_var, var_analisada, coluna_preco)

            if "error" in resultados_var:
                st.error(f"Erro ao analisar '{var_analisada}': {resultados_var['error']}")
                continue

            # Exibir Tabela ANOVA
            if "anova_table" in resultados_var:
                st.markdown("**Tabela ANOVA:**")
                st.dataframe(resultados_var["anova_table"])
                p_anova = resultados_var.get("p_valor_anova")
                if p_anova is not None:
                    if p_anova < 0.05:
                        st.success(
                            f"✅ ANOVA: Há uma diferença estatisticamente significativa nos preços (p-valor: {p_anova:.4e}).")
                    else:
                        st.info(
                            f"ℹ️ ANOVA: Não há uma diferença estatisticamente significativa nos preços (p-valor: {p_anova:.4e}).")

            # Pressupostos e Testes Alternativos
            with st.expander("Verificar Pressupostos da ANOVA e Testes Alternativos"):
                st.markdown("**Normalidade dos Resíduos:**")
                if "shapiro_test" in resultados_var:
                    stat, p_val = resultados_var["shapiro_test"]
                    st.write(f"Shapiro-Wilk: Estatística={stat:.4f}, P-valor={p_val:.4e}")
                elif "anderson_test" in resultados_var:
                    ad_res = resultados_var["anderson_test"]
                    st.write(f"Anderson-Darling: Estatística={ad_res.statistic:.4f}")
                    # st.write(f"  Valores Críticos: {ad_res.critical_values}")
                    # st.write(f"  Níveis de Significância: {ad_res.significance_level}")

                if resultados_var.get("normalidade_ok"):
                    st.success("✅ Resíduos parecem ser normalmente distribuídos.")
                else:
                    st.warning("⚠️ Resíduos NÃO parecem ser normalmente distribuídos.")

                if "normalidade" in resultados_var["plots"]:
                    st.pyplot(resultados_var["plots"]["normalidade"])

                st.markdown("**Homogeneidade das Variâncias (Homocedasticidade):**")
                if "levene_test" in resultados_var:
                    stat_l, p_l = resultados_var["levene_test"]
                    st.write(f"Teste de Levene: Estatística={stat_l:.4f}, P-valor={p_l:.4e}")
                    if resultados_var.get("homocedasticidade_ok"):
                        st.success("✅ Variâncias parecem ser homogêneas.")
                    else:
                        st.warning("⚠️ Variâncias NÃO parecem ser homogêneas.")
                else:
                    st.write("Teste de Levene não pôde ser realizado (dados insuficientes).")

                if "kruskal_test" in resultados_var:
                    st.markdown("**Teste de Kruskal-Wallis (Alternativa Não Paramétrica):**")
                    stat_k, p_k = resultados_var["kruskal_test"]
                    st.write(f"Kruskal-Wallis: Estatística={stat_k:.4f}, P-valor={p_k:.4e}")
                    if p_k < 0.05:
                        st.success(f"✅ Kruskal-Wallis: Diferença significativa nas medianas dos preços.")
                    else:
                        st.info(f"ℹ️ Kruskal-Wallis: Sem diferença significativa nas medianas dos preços.")

            # Boxplot
            if "boxplot" in resultados_var["plots"]:
                st.markdown("**Distribuição de Preços por Categoria:**")
                st.pyplot(resultados_var["plots"]["boxplot"])

            st.markdown("---")  # Separador entre variáveis

    elif not variaveis_selecionadas and st.sidebar.button("Analisar", type="primary",
                                                          help="Clique para iniciar após selecionar as variáveis.",
                                                          use_container_width=True, disabled=True):
        # Botão fica desabilitado até selecionar algo, apenas para feedback visual
        pass

    st.sidebar.markdown("---")
    st.sidebar.markdown("Desenvolvido como parte de uma análise de dados imobiliários.")

elif df is None and coluna_preco is None:  # Falha no carregamento
    st.warning("Aguardando carregamento dos dados ou verifique os erros acima.")
else:  # Carregou mas não achou coluna de preço ou não há categóricas
    if coluna_preco is None:
        st.error(
            f"A coluna de preço de venda ('saleprice' ou similar) não foi encontrada no dataset. Verifique as colunas disponíveis: {todas_colunas}")
    if not colunas_categoricas_selecionaveis:
        st.error("Nenhuma coluna categórica adequada para análise foi identificada.")