File size: 4,261 Bytes
77fb120
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
"""

Módulo de gestión de entrada/salida de datos (I/O).

Centraliza las operaciones de lectura y escritura para garantizar la

consistencia de formatos y la correcta gestión de rutas en el proyecto.

"""

import os
import pandas as pd
import logging
from typing import Optional
from src.utils.config import DATASET_COLUMNS

logger = logging.getLogger(__name__)

# Ruta base por defecto para el entorno de Google Colab
DEFAULT_BASE_DIR = '/content/drive/MyDrive/TFG/data'

def load_dataset(file_path: str, fallback_url: Optional[str] = None) -> pd.DataFrame:
    """

    Carga el dataset RAW original (sin cabeceras, separado por comas).

    Uso: Para la primera carga de datos brutos.

    """
    try:
        logger.info(f"Iniciando carga de datos crudos desde: {file_path}")
        
        # Lectura estándar para el formato original del corpus
        df = pd.read_csv(
            file_path,
            sep=',',
            engine='python',
            header=None,
            names=DATASET_COLUMNS
        )
        logger.info(f"Carga local exitosa: {len(df)} registros.")
        return df

    except FileNotFoundError:
        logger.warning(f"Archivo local no encontrado: {file_path}")
        
        if fallback_url:
            logger.info(f"Intentando descarga desde respaldo remoto: {fallback_url}")
            try:
                df = pd.read_csv(
                    fallback_url,
                    sep=',',
                    engine='python',
                    header=None,
                    names=DATASET_COLUMNS
                )
                logger.info(f"Carga remota exitosa: {len(df)} registros.")
                return df
            except Exception as e:
                logger.critical(f"Fallo crítico en carga remota: {str(e)}")
                raise e
        else:
            raise

    except Exception as e:
        logger.error(f"Error inesperado en load_dataset: {str(e)}")
        raise e

def load_processed_data(filename: str, input_dir: str = DEFAULT_BASE_DIR) -> pd.DataFrame:
    """

    Carga un dataset PROCESADO (con cabeceras, separado por punto y coma).

    Uso: Para cargar checkpoints o versiones enriquecidas (v1, v2, v3).

    

    Args:

        filename (str): Nombre del archivo (ej: 'dataset_v2.csv').

        input_dir (str): Directorio donde buscar el archivo.

    """
    try:
        full_path = os.path.join(input_dir, filename)
        logger.info(f"Cargando dataset procesado desde: {full_path}")
        
        if not os.path.exists(full_path):
            raise FileNotFoundError(f"No se encuentra el archivo: {full_path}")
            
        # Importante: encoding utf-8 y separador ; para compatibilidad
        df = pd.read_csv(full_path, sep=';', encoding='utf-8')
        logger.info(f"Carga exitosa: {len(df)} registros procesados.")
        return df
        
    except Exception as e:
        logger.error(f"Error cargando datos procesados {filename}: {str(e)}")
        raise e

def save_processed_data(df: pd.DataFrame, file_name: str, output_dir: str = DEFAULT_BASE_DIR) -> str:
    """

    Persiste el dataframe enriquecido en el almacenamiento.

    Crea el directorio si no existe y maneja la codificación segura.



    Args:

        df (pd.DataFrame): Datos a guardar.

        file_name (str): Nombre del archivo de salida.

        output_dir (str): Directorio de destino.



    Returns:

        str: Ruta absoluta del archivo guardado.

    """
    try:
        # 1. Validación y creación del directorio
        if not os.path.exists(output_dir):
            os.makedirs(output_dir, exist_ok=True)
            logger.info(f"Directorio creado: {output_dir}")

        # 2. Construcción de ruta segura
        output_path = os.path.join(output_dir, file_name)
        logger.info(f"Guardando datos en: {output_path}")

        # 3. Escritura (UTF-8 y separador ;)
        df.to_csv(output_path, index=False, sep=';', encoding='utf-8')
        
        logger.info("Persistencia finalizada exitosamente.")
        return output_path

    except Exception as e:
        logger.error(f"Error crítico al guardar {file_name}: {e}")
        raise e