SpanishMicroEvents / src /nlp /dbpedia_processor.py
martsola's picture
Initial dataset release for ACM MM 2026
77fb120 verified
"""
Módulo de procesamiento masivo para el enlazado semántico con DBpedia.
Gestiona la ejecución concurrente y el flujo de limpieza de entidades.
"""
import concurrent.futures
from tqdm.auto import tqdm
import pandas as pd
import logging
from src.nlp.dbpedia_linker import DBpediaLinker
from src.utils.nlp_utils import filter_entities_with_context
logger = logging.getLogger(__name__)
class DBpediaProcessor:
def __init__(self, language='es', max_workers=5):
"""
Inicializa el procesador con el linker y la configuración de hilos.
"""
self.linker = DBpediaLinker(language=language)
self.max_workers = max_workers
def run_full_pipeline(self, df: pd.DataFrame, text_column: str) -> pd.DataFrame:
"""
Ejecuta el ciclo completo: extracción concurrente y filtrado ontológico.
"""
df_result = df.copy()
texts = df_result[text_column].tolist()
# --- Fase A: Extracción paralela ---
print(f"Iniciando extracción concurrente ({self.max_workers} hilos)...")
with concurrent.futures.ThreadPoolExecutor(max_workers=self.max_workers) as executor:
# Se define la tarea de extracción con un umbral de confianza de 0.6
tarea_extraccion = lambda t: self.linker.annotate_text(t, confidence=0.6)
resultados_brutos = list(tqdm(
executor.map(tarea_extraccion, texts),
total=len(texts),
desc="Llamadas API DBpedia"
))
df_result['dbpedia_entities_raw'] = resultados_brutos
# --- Fase B: Limpieza y Filtrado ---
print("Aplicando criterios de validación contextual y ontológica...")
# Aplicación de la lógica de filtrado registro a registro
df_result['named_entities_dbpedia'] = df_result.apply(
lambda row: filter_entities_with_context(row['dbpedia_entities_raw'], row),
axis=1
)
# Eliminamos la columna de datos brutos para optimizar el almacenamiento final
df_result = df_result.drop(columns=['dbpedia_entities_raw'])
return df_result