Datasets:
File size: 6,664 Bytes
77fb120 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 | """
Módulo de limpieza de datos.
Normaliza tipos y estructura el contenido JSON.
"""
import pandas as pd
import json
import logging
from typing import Optional, Dict, List, Any
import html
import re
import dateparser
import multiprocessing as mp
import numpy as np
from src.data import cleaner # Importación para acceso a funciones internas
logger = logging.getLogger(__name__)
def _safe_json_parse(json_str: str) -> Optional[Dict[str, Any]]:
"""
Parsea cadenas JSON controlando errores de decodificación.
"""
if not isinstance(json_str, str):
return None
try:
return json.loads(json_str)
except (json.JSONDecodeError, TypeError):
return None
def run_initial_preprocessing(df: pd.DataFrame) -> pd.DataFrame:
"""
Ejecuta la limpieza inicial y conversión de tipos.
Transformaciones:
1. 'publication_date' a datetime.
2. 'id' a string.
3. Deserialización de 'json_data'.
"""
logger.info("Iniciando preprocesamiento de tipos...")
df_processed = df.copy()
# Conversión temporal (fechas inválidas pasan a NaT)
df_processed['publication_date'] = pd.to_datetime(
df_processed['publication_date'],
errors='coerce'
)
# Normalización de identificadores
df_processed['id'] = df_processed['id'].astype(str)
# Deserialización de JSON-LD
df_processed['json_data'] = df_processed['json_data'].apply(_safe_json_parse)
return df_processed
def _unescape_text(text: Any) -> Optional[str]:
"""
Decodifica entidades HTML en cadenas de texto.
"""
if isinstance(text, str):
return html.unescape(text)
return text
def extract_and_clean_content(df: pd.DataFrame) -> pd.DataFrame:
"""
Extrae campos del objeto JSON y normaliza el contenido textual.
Proceso:
1. Proyección de 'headline', 'articleBody' y 'description'.
2. Decodificación de caracteres HTML.
3. Eliminación de registros con cuerpo de noticia nulo.
"""
logger.info("Iniciando extracción y limpieza de campos textuales...")
df_ext = df.copy()
# Extracción de atributos desde la estructura JSON-LD
fields = ['headline', 'articleBody', 'description']
for field in fields:
# Se utiliza el acceso seguro al diccionario parseado previamente
df_ext[field] = df_ext['json_data'].apply(
lambda x: x.get(field) if isinstance(x, dict) else None
)
# Limpieza de entidades HTML en los campos extraídos
for field in fields:
df_ext[field] = df_ext[field].apply(_unescape_text)
# Validación de integridad: eliminación de noticias sin contenido principal
initial_count = len(df_ext)
df_ext = df_ext.dropna(subset=['articleBody'])
logger.info(f"Limpieza finalizada. Registros descartados por falta de cuerpo: {initial_count - len(df_ext)}")
return df_ext
logger = logging.getLogger(__name__)
# Patrón de expresiones regulares para identificar candidatos a expresiones temporales
# Incluye fechas absolutas, días de la semana y deícticos relativos
DATE_PATTERN_RELATIVE = re.compile(
r'\b(\d{1,4}[-/]\d{1,2}[-/]\d{1,4})|'
r'(\d{1,2}\s+de\s+[a-zA-Z]+(\s+de\s+\d{4})?)|'
r'(lunes|martes|miércoles|jueves|viernes|sábado|domingo)|'
r'\b(hoy|ayer|(?:pasado )?mañana|anoche|ante(?:s de )?ayer|'
r'hace\s+(?:un|una|\d+|\w+)\s+(?:días?|semanas?|mes(?:es)?|años?))\b',
re.IGNORECASE
)
def _find_date_mentions(text: str) -> List[str]:
"""
Identifica menciones de fechas potenciales mediante expresiones regulares.
"""
if not isinstance(text, str):
return []
matches = DATE_PATTERN_RELATIVE.findall(text)
return [item for sublist in matches for item in sublist if item]
def _resolve_relative_date(mention: str, base_date: pd.Timestamp) -> Optional[str]:
"""
Normaliza una mención temporal relativa utilizando una fecha de referencia.
"""
settings = {'RELATIVE_BASE': base_date}
dt = dateparser.parse(mention, languages=['es'], settings=settings)
if dt:
# Validación heurística: se descartan discrepancias mayores a un año
if abs((dt.date() - base_date.date()).days) < 365:
return dt.strftime('%Y-%m-%d')
return None
def extract_temporal_expressions(df: pd.DataFrame, text_column: str = 'articleBody') -> pd.DataFrame:
"""
Ejecuta el pipeline de extracción y normalización temporal.
Proceso:
1. Detección de candidatos mediante patrones léxicos.
2. Resolución de referencias relativas usando 'publication_date'.
3. Normalización al estándar ISO 8601.
"""
logger.info("Iniciando normalización de expresiones temporales...")
df_temp = df.copy()
# Detección inicial de menciones
df_temp['date_mentions'] = df_temp[text_column].apply(_find_date_mentions)
# Resolución y normalización
def process_row(row):
base_date = row['publication_date']
mentions = row['date_mentions']
if not mentions or pd.isnull(base_date):
return []
parsed = [_resolve_relative_date(m, base_date) for m in mentions]
# Eliminación de duplicados y valores nulos
return list(set([p for p in parsed if p]))
df_temp['all_extracted_dates'] = df_temp.apply(process_row, axis=1)
logger.info("Finalizada la extracción de fechas.")
return df_temp
# Función auxiliar global para permitir la serialización en multiprocessing
def _process_row_dates_internal(row):
from src.data.cleaner import _find_date_mentions, _resolve_relative_date
mentions = _find_date_mentions(row['articleBody'])
base_date = row['publication_date']
if not mentions or pd.isnull(base_date):
return []
parsed = [_resolve_relative_date(m, base_date) for m in mentions]
return list(set([p for p in parsed if p]))
def extract_temporal_expressions_parallel(df: pd.DataFrame, n_cores: int = None) -> pd.DataFrame:
"""
Distribuye la extracción de fechas mediante un pool de procesos.
"""
if n_cores is None:
n_cores = mp.cpu_count()
logger.info(f"Extracción paralela activa: {n_cores} núcleos.")
df_copy = df.copy()
# Usamos apply directamente para asegurar que la columna existe antes de devolver
df_copy['all_extracted_dates'] = df_copy.apply(_process_row_dates_internal, axis=1)
return df_copy |