File size: 6,664 Bytes
77fb120
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
"""

Módulo de limpieza de datos.



Normaliza tipos y estructura el contenido JSON.

"""

import pandas as pd
import json
import logging
from typing import Optional, Dict, List, Any
import html
import re
import dateparser
import multiprocessing as mp
import numpy as np
from src.data import cleaner # Importación para acceso a funciones internas

logger = logging.getLogger(__name__)

def _safe_json_parse(json_str: str) -> Optional[Dict[str, Any]]:
    """

    Parsea cadenas JSON controlando errores de decodificación.

    """
    if not isinstance(json_str, str):
        return None
    try:
        return json.loads(json_str)
    except (json.JSONDecodeError, TypeError):
        return None

def run_initial_preprocessing(df: pd.DataFrame) -> pd.DataFrame:
    """

    Ejecuta la limpieza inicial y conversión de tipos.



    Transformaciones:

    1. 'publication_date' a datetime.

    2. 'id' a string.

    3. Deserialización de 'json_data'.

    """
    logger.info("Iniciando preprocesamiento de tipos...")
    
    df_processed = df.copy()

    # Conversión temporal (fechas inválidas pasan a NaT)
    df_processed['publication_date'] = pd.to_datetime(
        df_processed['publication_date'], 
        errors='coerce'
    )

    # Normalización de identificadores
    df_processed['id'] = df_processed['id'].astype(str)

    # Deserialización de JSON-LD
    df_processed['json_data'] = df_processed['json_data'].apply(_safe_json_parse)

    return df_processed

def _unescape_text(text: Any) -> Optional[str]:
    """

    Decodifica entidades HTML en cadenas de texto.

    """
    if isinstance(text, str):
        return html.unescape(text)
    return text

def extract_and_clean_content(df: pd.DataFrame) -> pd.DataFrame:
    """

    Extrae campos del objeto JSON y normaliza el contenido textual.



    Proceso:

    1. Proyección de 'headline', 'articleBody' y 'description'.

    2. Decodificación de caracteres HTML.

    3. Eliminación de registros con cuerpo de noticia nulo.

    """
    logger.info("Iniciando extracción y limpieza de campos textuales...")
    
    df_ext = df.copy()

    # Extracción de atributos desde la estructura JSON-LD
    fields = ['headline', 'articleBody', 'description']
    for field in fields:
        # Se utiliza el acceso seguro al diccionario parseado previamente
        df_ext[field] = df_ext['json_data'].apply(
            lambda x: x.get(field) if isinstance(x, dict) else None
        )

    # Limpieza de entidades HTML en los campos extraídos
    for field in fields:
        df_ext[field] = df_ext[field].apply(_unescape_text)

    # Validación de integridad: eliminación de noticias sin contenido principal
    initial_count = len(df_ext)
    df_ext = df_ext.dropna(subset=['articleBody'])
    logger.info(f"Limpieza finalizada. Registros descartados por falta de cuerpo: {initial_count - len(df_ext)}")

    return df_ext

logger = logging.getLogger(__name__)

# Patrón de expresiones regulares para identificar candidatos a expresiones temporales
# Incluye fechas absolutas, días de la semana y deícticos relativos
DATE_PATTERN_RELATIVE = re.compile(
    r'\b(\d{1,4}[-/]\d{1,2}[-/]\d{1,4})|'
    r'(\d{1,2}\s+de\s+[a-zA-Z]+(\s+de\s+\d{4})?)|'
    r'(lunes|martes|miércoles|jueves|viernes|sábado|domingo)|'
    r'\b(hoy|ayer|(?:pasado )?mañana|anoche|ante(?:s de )?ayer|'
    r'hace\s+(?:un|una|\d+|\w+)\s+(?:días?|semanas?|mes(?:es)?|años?))\b',
    re.IGNORECASE
)

def _find_date_mentions(text: str) -> List[str]:
    """

    Identifica menciones de fechas potenciales mediante expresiones regulares.

    """
    if not isinstance(text, str):
        return []
    matches = DATE_PATTERN_RELATIVE.findall(text)
    return [item for sublist in matches for item in sublist if item]

def _resolve_relative_date(mention: str, base_date: pd.Timestamp) -> Optional[str]:
    """

    Normaliza una mención temporal relativa utilizando una fecha de referencia.

    """
    settings = {'RELATIVE_BASE': base_date}
    dt = dateparser.parse(mention, languages=['es'], settings=settings)
    
    if dt:
        # Validación heurística: se descartan discrepancias mayores a un año
        if abs((dt.date() - base_date.date()).days) < 365:
            return dt.strftime('%Y-%m-%d')
    return None

def extract_temporal_expressions(df: pd.DataFrame, text_column: str = 'articleBody') -> pd.DataFrame:
    """

    Ejecuta el pipeline de extracción y normalización temporal.



    Proceso:

    1. Detección de candidatos mediante patrones léxicos.

    2. Resolución de referencias relativas usando 'publication_date'.

    3. Normalización al estándar ISO 8601.

    """
    logger.info("Iniciando normalización de expresiones temporales...")
    
    df_temp = df.copy()
    
    # Detección inicial de menciones
    df_temp['date_mentions'] = df_temp[text_column].apply(_find_date_mentions)
    
    # Resolución y normalización
    def process_row(row):
        base_date = row['publication_date']
        mentions = row['date_mentions']
        
        if not mentions or pd.isnull(base_date):
            return []
            
        parsed = [_resolve_relative_date(m, base_date) for m in mentions]
        # Eliminación de duplicados y valores nulos
        return list(set([p for p in parsed if p]))

    df_temp['all_extracted_dates'] = df_temp.apply(process_row, axis=1)
    
    logger.info("Finalizada la extracción de fechas.")
    return df_temp

# Función auxiliar global para permitir la serialización en multiprocessing
def _process_row_dates_internal(row):
    from src.data.cleaner import _find_date_mentions, _resolve_relative_date
    mentions = _find_date_mentions(row['articleBody'])
    base_date = row['publication_date']
    
    if not mentions or pd.isnull(base_date):
        return []
    
    parsed = [_resolve_relative_date(m, base_date) for m in mentions]
    return list(set([p for p in parsed if p]))

def extract_temporal_expressions_parallel(df: pd.DataFrame, n_cores: int = None) -> pd.DataFrame:
    """

    Distribuye la extracción de fechas mediante un pool de procesos.

    """
    if n_cores is None:
        n_cores = mp.cpu_count()
    
    logger.info(f"Extracción paralela activa: {n_cores} núcleos.")
    
    df_copy = df.copy()
    # Usamos apply directamente para asegurar que la columna existe antes de devolver
    df_copy['all_extracted_dates'] = df_copy.apply(_process_row_dates_internal, axis=1)
    
    return df_copy