Datasets:
File size: 2,193 Bytes
77fb120 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 | """
Módulo de procesamiento masivo para el enlazado semántico con DBpedia.
Gestiona la ejecución concurrente y el flujo de limpieza de entidades.
"""
import concurrent.futures
from tqdm.auto import tqdm
import pandas as pd
import logging
from src.nlp.dbpedia_linker import DBpediaLinker
from src.utils.nlp_utils import filter_entities_with_context
logger = logging.getLogger(__name__)
class DBpediaProcessor:
def __init__(self, language='es', max_workers=5):
"""
Inicializa el procesador con el linker y la configuración de hilos.
"""
self.linker = DBpediaLinker(language=language)
self.max_workers = max_workers
def run_full_pipeline(self, df: pd.DataFrame, text_column: str) -> pd.DataFrame:
"""
Ejecuta el ciclo completo: extracción concurrente y filtrado ontológico.
"""
df_result = df.copy()
texts = df_result[text_column].tolist()
# --- Fase A: Extracción paralela ---
print(f"Iniciando extracción concurrente ({self.max_workers} hilos)...")
with concurrent.futures.ThreadPoolExecutor(max_workers=self.max_workers) as executor:
# Se define la tarea de extracción con un umbral de confianza de 0.6
tarea_extraccion = lambda t: self.linker.annotate_text(t, confidence=0.6)
resultados_brutos = list(tqdm(
executor.map(tarea_extraccion, texts),
total=len(texts),
desc="Llamadas API DBpedia"
))
df_result['dbpedia_entities_raw'] = resultados_brutos
# --- Fase B: Limpieza y Filtrado ---
print("Aplicando criterios de validación contextual y ontológica...")
# Aplicación de la lógica de filtrado registro a registro
df_result['named_entities_dbpedia'] = df_result.apply(
lambda row: filter_entities_with_context(row['dbpedia_entities_raw'], row),
axis=1
)
# Eliminamos la columna de datos brutos para optimizar el almacenamiento final
df_result = df_result.drop(columns=['dbpedia_entities_raw'])
return df_result |