SpanishMicroEvents / src /events /segmentation.py
martsola's picture
Initial dataset release for ACM MM 2026
77fb120 verified
"""
Mejoras D y E — Segmentación temporal mejorada.
Reemplaza la función segmentar_cluster_por_picos
con dos mejoras clave:
- Mejora D: Jaccard suavizado de entidades (en lugar de Jaccard = 0 estricto)
Uso típico en Colab:
from src.events.segmentation import segmentar_cluster_v2, consolidar_micro_eventos
segmentos, scores, contadores = segmentar_cluster_v2(df_cluster, embeddings)
"""
from __future__ import annotations
import ast
import logging
from typing import Optional
import numpy as np
import pandas as pd
from scipy.ndimage import gaussian_filter1d
from scipy.signal import find_peaks
from sklearn.metrics.pairwise import cosine_similarity
logger = logging.getLogger(__name__)
# ── Parámetros globales (sobreescribibles por argumento) ─────────────────────
GAP_TEMPORAL_MIN = 30 # días → división forzada
JACCARD_ENT_THRESHOLD = 0.15 # Mejora D: umbral de similitud de entidades (bajo = más divisiones)
ENT_TYPES_SEGM = {'PER', 'ORG', 'LOC'}
# ─────────────────────────────────────────────────────────────────────────────
# Utilidades de entidades
# ─────────────────────────────────────────────────────────────────────────────
def _extract_entity_set(df_segment: pd.DataFrame, col: str = 'named_entities_stanza') -> set[str]:
"""
Extrae el conjunto de entidades PER/ORG/LOC normalizadas de un segmento.
Solo incluye entidades que aparecen en ≥ 2 artículos del segmento (para
filtrar menciones accidentales de un solo artículo).
"""
if col not in df_segment.columns:
return set()
entity_counts: dict[str, int] = {}
for raw in df_segment[col]:
if raw is None or (isinstance(raw, float) and np.isnan(raw)):
continue
if isinstance(raw, str):
try:
raw = ast.literal_eval(raw)
except Exception:
continue
if not isinstance(raw, (list, tuple)):
continue
seen_in_row: set[str] = set()
for e in raw:
if not isinstance(e, dict):
continue
if e.get('type', '') not in ENT_TYPES_SEGM:
continue
key = e.get('text', '').lower().strip()
if key and key not in seen_in_row:
seen_in_row.add(key)
entity_counts[key] = entity_counts.get(key, 0) + 1
return {k for k, v in entity_counts.items() if v >= 2}
def _jaccard_similarity(set_a: set, set_b: set) -> float:
"""Jaccard suavizado: |A∩B| / |A∪B|. Devuelve 1.0 si ambos están vacíos."""
if not set_a and not set_b:
return 1.0
union = set_a | set_b
if not union:
return 1.0
return len(set_a & set_b) / len(union)
# ─────────────────────────────────────────────────────────────────────────────
# Validación de cortes (triple criterio mejorado)
# ─────────────────────────────────────────────────────────────────────────────
def _validar_division(
df_antes: pd.DataFrame,
df_despues: pd.DataFrame,
embeddings_matrix: np.ndarray,
idx_antes: list[int],
idx_despues: list[int],
centroide_cluster: np.ndarray,
umbral_similitud: float,
jaccard_threshold: float = JACCARD_ENT_THRESHOLD,
) -> tuple[bool, float, str]:
"""
Aplica el triple criterio de validación para decidir si mantener un corte.
Criterios (en orden de prioridad):
1. Gap temporal ≥ GAP_TEMPORAL_MIN → división forzada (score=NaN)
2. Coseno residual < umbral_similitud → división semántica
3. Jaccard de entidades PER/ORG/LOC < jaccard_threshold → división factual
Returns
-------
(dividir: bool, score: float, motivo: str)
score = NaN si la división es por gap, valor coseno residual si es semántica.
"""
if not idx_antes or not idx_despues:
return False, 1.0, 'insuficiente'
# ── Criterio 1: gap temporal ─────────────────────────────────────────────
fecha_fin_antes = df_antes['fecha_limpia'].max()
fecha_inicio_desp = df_despues['fecha_limpia'].min()
gap_dias = (fecha_inicio_desp - fecha_fin_antes).days
if gap_dias >= GAP_TEMPORAL_MIN:
return True, float('nan'), 'gap'
# ── Criterio 2: coseno residual ──────────────────────────────────────────
emb_antes = embeddings_matrix[idx_antes]
emb_despues = embeddings_matrix[idx_despues]
res_antes = emb_antes - centroide_cluster
res_despues = emb_despues - centroide_cluster
c_antes = res_antes.mean(axis=0, keepdims=True)
c_despues = res_despues.mean(axis=0, keepdims=True)
score = float(cosine_similarity(c_antes, c_despues)[0, 0])
if score < umbral_similitud:
return True, score, 'coseno'
# ── Criterio 3: Jaccard suavizado de entidades ───────────────────────────
ents_antes = _extract_entity_set(df_antes)
ents_despues = _extract_entity_set(df_despues)
# Solo aplica si ambos segmentos tienen ≥ 2 entidades específicas
if len(ents_antes) >= 2 and len(ents_despues) >= 2:
jac = _jaccard_similarity(ents_antes, ents_despues)
if jac < jaccard_threshold:
return True, score, 'entidades'
return False, score, 'pausa'
# ─────────────────────────────────────────────────────────────────────────────
# NOTA: La fusión ciega de segmentos pequeños fue eliminada para evitar la
# recapacitación de ruido estructural (beat journalism).
# Los trozos separados por el coseno residual se mantendrán aislados como eventos atómicos.
# ─────────────────────────────────────────────────────────────────────────────
# ─────────────────────────────────────────────────────────────────────────────
# Función principal (drop-in replacement de segmentar_cluster_por_picos)
# ─────────────────────────────────────────────────────────────────────────────
def segmentar_cluster_v2(
df_cluster: pd.DataFrame,
embeddings_matrix: np.ndarray,
sigma: float = 1.0,
prominence: float = 0.5,
umbral_similitud: float = 0.05,
jaccard_threshold: float = JACCARD_ENT_THRESHOLD,
entity_col: str = 'named_entities_stanza',
) -> tuple[list[pd.DataFrame], list[float], dict]:
"""
Versión mejorada de segmentar_cluster_por_picos con Mejoras D.
Cambios respecto a la versión original:
- Mejora D: Jaccard de entidades suavizado (< jaccard_threshold, no == 0).
- Muerte a la Fusión Ciega: Se aceptan micro-eventos puramente atómicos.
Parámetros
----------
df_cluster : Sub-dataframe del cluster a segmentar.
embeddings_matrix : Array (N_total, D) de embeddings del dataset completo.
sigma : Suavizado Gaussiano para la señal temporal.
prominence : Prominencia mínima para detección de picos.
umbral_similitud : Umbral coseno residual bajo el que se divide.
jaccard_threshold : Umbral Jaccard bajo el que se divide por entidades.
entity_col : Columna de entidades en df_cluster.
Returns
-------
(segmentos, scores, contadores)
"""
contadores = {'gap': 0, 'coseno': 0, 'entidades': 0}
df_sorted = df_cluster.sort_values('fecha_limpia').copy()
# ── NUEVA LÓGICA: Generar puntos de corte candidatos desde 3 frentes ──
puntos_de_corte: set[pd.Timestamp] = set()
# 1. Valles entre picos (Señal Gaussiana)
serie_diaria = df_sorted.groupby('fecha_limpia').size()
if not serie_diaria.empty:
rango = pd.date_range(start=serie_diaria.index.min(), end=serie_diaria.index.max())
serie_diaria = serie_diaria.reindex(rango, fill_value=0)
valores = gaussian_filter1d(serie_diaria.values.astype(float), sigma=sigma)
picos, _ = find_peaks(valores, prominence=prominence)
if len(picos) > 1:
for i in range(len(picos) - 1):
inicio, fin = picos[i], picos[i + 1]
idx_min = inicio + int(np.argmin(valores[inicio:fin]))
puntos_de_corte.add(serie_diaria.index[idx_min])
# 2. Gaps temporales estrictos (>= 7 días)
GAP_MAX_DIAS = 7
fechas_list = df_sorted['fecha_limpia'].tolist()
for i in range(1, len(fechas_list)):
gap = (fechas_list[i] - fechas_list[i-1]).days
if gap >= GAP_MAX_DIAS:
corte = fechas_list[i-1] + pd.Timedelta(days=gap//2)
puntos_de_corte.add(corte)
# 3. Lifespan máximo FALLBACK
# Si detectamos un fragmento continuo sin cortes naturales de más de 15 días,
# insertamos cortes intermedios cada 10 días para forzar evaluación semántica.
puntos_lista = sorted(list(puntos_de_corte)) if puntos_de_corte else []
marcadores = [fechas_list[0]] + puntos_lista + [fechas_list[-1]]
if fechas_list:
for i in range(len(marcadores) - 1):
if (marcadores[i+1] - marcadores[i]).days > 15:
fecha_actual = marcadores[i]
while fecha_actual + pd.Timedelta(days=10) < marcadores[i+1]:
fecha_actual += pd.Timedelta(days=10)
puntos_de_corte.add(fecha_actual)
if not puntos_de_corte:
return [df_cluster], [], contadores
puntos_de_corte = sorted(list(puntos_de_corte))
# Centroide del cluster completo
idx_all = df_cluster.index.tolist()
centroide = embeddings_matrix[idx_all].mean(axis=0)
fechas_corte_finales: list[pd.Timestamp] = []
scores: list[float] = []
for fecha_corte in puntos_de_corte:
df_antes = df_sorted[df_sorted['fecha_limpia'] <= fecha_corte]
df_despues = df_sorted[df_sorted['fecha_limpia'] > fecha_corte]
if df_antes.empty or df_despues.empty:
continue
idx_a = df_antes.index.tolist()
idx_d = df_despues.index.tolist()
dividir, score, motivo = _validar_division(
df_antes, df_despues,
embeddings_matrix, idx_a, idx_d,
centroide, umbral_similitud, jaccard_threshold,
)
scores.append(score)
if dividir:
fechas_corte_finales.append(fecha_corte)
contadores[motivo] = contadores.get(motivo, 0) + 1
# 5. Construir segmentos
if not fechas_corte_finales:
return [df_cluster], scores, contadores
segmentos: list[pd.DataFrame] = []
df_restante = df_sorted.copy()
for fecha in sorted(fechas_corte_finales):
seg_actual = df_restante[df_restante['fecha_limpia'] <= fecha]
df_restante = df_restante[df_restante['fecha_limpia'] > fecha]
if not seg_actual.empty:
segmentos.append(seg_actual)
if not df_restante.empty:
segmentos.append(df_restante)
# 6. No fusionamos los segmentos generados (Atomicidad estricta)
return segmentos, scores, contadores
# ─────────────────────────────────────────────────────────────────────────────
# Función de consolidación (reemplaza el bucle de Fase 2)
# ─────────────────────────────────────────────────────────────────────────────
def consolidar_micro_eventos(
df_ruta_a: pd.DataFrame,
df_ruta_b: pd.DataFrame,
embeddings_matrix: np.ndarray,
candidatos_temporales: list[int],
sigma: float = 1.0,
prominence: float = 0.5,
umbral_similitud: float = 0.05,
jaccard_threshold: float = JACCARD_ENT_THRESHOLD,
) -> tuple[pd.DataFrame, dict]:
"""
Aplica segmentar_cluster_v2 a todos los candidatos de Ruta A y
consolida el resultado con Ruta B en un único DataFrame.
Retorna (df_final, stats) donde stats contiene los contadores globales.
"""
lista_dfs: list[pd.DataFrame] = []
stats = {
'total_gap': 0, 'total_coseno': 0,
'total_entidades': 0, 'n_divididos': 0, 'all_scores': [],
}
print(f"Procesando {len(candidatos_temporales)} clusters de Ruta A...")
print(f"Parámetros: σ={sigma}, prom={prominence}, "
f"cos={umbral_similitud}, jaccard={jaccard_threshold}\n")
for topic_id in candidatos_temporales:
df_actual = df_ruta_a[df_ruta_a['micro_topic_final'] == topic_id]
segmentos, scores, contadores = segmentar_cluster_v2(
df_actual, embeddings_matrix,
sigma=sigma, prominence=prominence,
umbral_similitud=umbral_similitud,
jaccard_threshold=jaccard_threshold,
)
stats['all_scores'].extend(scores)
stats['total_gap'] += contadores['gap']
stats['total_coseno'] += contadores['coseno']
stats['total_entidades'] += contadores['entidades']
if len(segmentos) > 1:
stats['n_divididos'] += 1
for i, seg in enumerate(segmentos):
sub = seg.copy()
sub['micro_event_id'] = f"{topic_id}_{i}" if len(segmentos) > 1 else str(topic_id)
lista_dfs.append(sub)
# Ruta B: micro-eventos atómicos
df_b = df_ruta_b.copy()
df_b['micro_event_id'] = df_b['micro_topic_final'].astype(str)
lista_dfs.append(df_b)
df_final = pd.concat(lista_dfs, ignore_index=True)
# Resumen
total_scores = len(stats['all_scores'])
if total_scores > 0:
print("─" * 55)
print(f" Cortes candidatos evaluados : {total_scores}")
print(f" Gap temporal (≥{GAP_TEMPORAL_MIN}d) : "
f"{stats['total_gap']} ({stats['total_gap']/total_scores*100:.1f}%)")
print(f" Coseno residual : "
f"{stats['total_coseno']} ({stats['total_coseno']/total_scores*100:.1f}%)")
print(f" Jaccard entidades (<{jaccard_threshold}) : "
f"{stats['total_entidades']} ({stats['total_entidades']/total_scores*100:.1f}%)")
print("─" * 55)
n_eventos = df_final['micro_event_id'].nunique()
med_art = df_final.groupby('micro_event_id').size().median()
print(f"\nMicro-eventos totales : {n_eventos}")
print(f"Mediana artículos/ev : {med_art}")
return df_final, stats