SpanishMicroEvents / src /data /cleaner.py
martsola's picture
Initial dataset release for ACM MM 2026
77fb120 verified
"""
Módulo de limpieza de datos.
Normaliza tipos y estructura el contenido JSON.
"""
import pandas as pd
import json
import logging
from typing import Optional, Dict, List, Any
import html
import re
import dateparser
import multiprocessing as mp
import numpy as np
from src.data import cleaner # Importación para acceso a funciones internas
logger = logging.getLogger(__name__)
def _safe_json_parse(json_str: str) -> Optional[Dict[str, Any]]:
"""
Parsea cadenas JSON controlando errores de decodificación.
"""
if not isinstance(json_str, str):
return None
try:
return json.loads(json_str)
except (json.JSONDecodeError, TypeError):
return None
def run_initial_preprocessing(df: pd.DataFrame) -> pd.DataFrame:
"""
Ejecuta la limpieza inicial y conversión de tipos.
Transformaciones:
1. 'publication_date' a datetime.
2. 'id' a string.
3. Deserialización de 'json_data'.
"""
logger.info("Iniciando preprocesamiento de tipos...")
df_processed = df.copy()
# Conversión temporal (fechas inválidas pasan a NaT)
df_processed['publication_date'] = pd.to_datetime(
df_processed['publication_date'],
errors='coerce'
)
# Normalización de identificadores
df_processed['id'] = df_processed['id'].astype(str)
# Deserialización de JSON-LD
df_processed['json_data'] = df_processed['json_data'].apply(_safe_json_parse)
return df_processed
def _unescape_text(text: Any) -> Optional[str]:
"""
Decodifica entidades HTML en cadenas de texto.
"""
if isinstance(text, str):
return html.unescape(text)
return text
def extract_and_clean_content(df: pd.DataFrame) -> pd.DataFrame:
"""
Extrae campos del objeto JSON y normaliza el contenido textual.
Proceso:
1. Proyección de 'headline', 'articleBody' y 'description'.
2. Decodificación de caracteres HTML.
3. Eliminación de registros con cuerpo de noticia nulo.
"""
logger.info("Iniciando extracción y limpieza de campos textuales...")
df_ext = df.copy()
# Extracción de atributos desde la estructura JSON-LD
fields = ['headline', 'articleBody', 'description']
for field in fields:
# Se utiliza el acceso seguro al diccionario parseado previamente
df_ext[field] = df_ext['json_data'].apply(
lambda x: x.get(field) if isinstance(x, dict) else None
)
# Limpieza de entidades HTML en los campos extraídos
for field in fields:
df_ext[field] = df_ext[field].apply(_unescape_text)
# Validación de integridad: eliminación de noticias sin contenido principal
initial_count = len(df_ext)
df_ext = df_ext.dropna(subset=['articleBody'])
logger.info(f"Limpieza finalizada. Registros descartados por falta de cuerpo: {initial_count - len(df_ext)}")
return df_ext
logger = logging.getLogger(__name__)
# Patrón de expresiones regulares para identificar candidatos a expresiones temporales
# Incluye fechas absolutas, días de la semana y deícticos relativos
DATE_PATTERN_RELATIVE = re.compile(
r'\b(\d{1,4}[-/]\d{1,2}[-/]\d{1,4})|'
r'(\d{1,2}\s+de\s+[a-zA-Z]+(\s+de\s+\d{4})?)|'
r'(lunes|martes|miércoles|jueves|viernes|sábado|domingo)|'
r'\b(hoy|ayer|(?:pasado )?mañana|anoche|ante(?:s de )?ayer|'
r'hace\s+(?:un|una|\d+|\w+)\s+(?:días?|semanas?|mes(?:es)?|años?))\b',
re.IGNORECASE
)
def _find_date_mentions(text: str) -> List[str]:
"""
Identifica menciones de fechas potenciales mediante expresiones regulares.
"""
if not isinstance(text, str):
return []
matches = DATE_PATTERN_RELATIVE.findall(text)
return [item for sublist in matches for item in sublist if item]
def _resolve_relative_date(mention: str, base_date: pd.Timestamp) -> Optional[str]:
"""
Normaliza una mención temporal relativa utilizando una fecha de referencia.
"""
settings = {'RELATIVE_BASE': base_date}
dt = dateparser.parse(mention, languages=['es'], settings=settings)
if dt:
# Validación heurística: se descartan discrepancias mayores a un año
if abs((dt.date() - base_date.date()).days) < 365:
return dt.strftime('%Y-%m-%d')
return None
def extract_temporal_expressions(df: pd.DataFrame, text_column: str = 'articleBody') -> pd.DataFrame:
"""
Ejecuta el pipeline de extracción y normalización temporal.
Proceso:
1. Detección de candidatos mediante patrones léxicos.
2. Resolución de referencias relativas usando 'publication_date'.
3. Normalización al estándar ISO 8601.
"""
logger.info("Iniciando normalización de expresiones temporales...")
df_temp = df.copy()
# Detección inicial de menciones
df_temp['date_mentions'] = df_temp[text_column].apply(_find_date_mentions)
# Resolución y normalización
def process_row(row):
base_date = row['publication_date']
mentions = row['date_mentions']
if not mentions or pd.isnull(base_date):
return []
parsed = [_resolve_relative_date(m, base_date) for m in mentions]
# Eliminación de duplicados y valores nulos
return list(set([p for p in parsed if p]))
df_temp['all_extracted_dates'] = df_temp.apply(process_row, axis=1)
logger.info("Finalizada la extracción de fechas.")
return df_temp
# Función auxiliar global para permitir la serialización en multiprocessing
def _process_row_dates_internal(row):
from src.data.cleaner import _find_date_mentions, _resolve_relative_date
mentions = _find_date_mentions(row['articleBody'])
base_date = row['publication_date']
if not mentions or pd.isnull(base_date):
return []
parsed = [_resolve_relative_date(m, base_date) for m in mentions]
return list(set([p for p in parsed if p]))
def extract_temporal_expressions_parallel(df: pd.DataFrame, n_cores: int = None) -> pd.DataFrame:
"""
Distribuye la extracción de fechas mediante un pool de procesos.
"""
if n_cores is None:
n_cores = mp.cpu_count()
logger.info(f"Extracción paralela activa: {n_cores} núcleos.")
df_copy = df.copy()
# Usamos apply directamente para asegurar que la columna existe antes de devolver
df_copy['all_extracted_dates'] = df_copy.apply(_process_row_dates_internal, axis=1)
return df_copy