SpanishMicroEvents / src /utils /nlp_utils.py
martsola's picture
Initial dataset release for ACM MM 2026
77fb120 verified
"""
Módulo de utilidades para el procesamiento de lenguaje natural (NLP).
Proporciona herramientas de limpieza, filtrado de stop-words y validación ontológica.
"""
import nltk
import ssl
from nltk.corpus import stopwords
# Configuración del entorno de descarga de NLTK
# Se implementa una gestión de excepciones para evitar errores de verificación SSL
try:
_create_unverified_https_context = ssl._create_unverified_context
except AttributeError:
pass
else:
ssl._create_default_https_context = _create_unverified_https_context
# Descarga y preparación del conjunto de palabras vacías (stop-words)
nltk.download('stopwords', quiet=True)
ENTITY_STOPWORDS = set(stopwords.words('spanish'))
def filter_entities_with_context(entities_list, news_row):
"""
Filtra y depura la lista de entidades mediante una lógica de validación cuádruple:
composición, pertinencia semántica, relevancia contextual y léxica.
Parámetros:
entities_list (list): Diccionarios de entidades obtenidos de DBpedia Spotlight.
news_row (pd.Series): Registro original de la noticia para análisis de contexto.
Retorna:
list: Entidades que superan los criterios de calidad establecidos.
"""
# Definición de tipos ontológicos aceptados para el dominio de noticias
VALID_TYPES = [
'Person', 'Politician', 'President', # Personas
'Organisation', 'Organization', 'Company', 'PoliticalParty', # Organizaciones
'GovernmentAgency', 'EducationalInstitution', 'Newspaper',
'Place', 'Location', 'PopulatedPlace', 'Country', 'City', # Lugares
'Region', 'AdministrativeRegion', 'Continent', 'Agent'
]
# Normalización del contenido textual para el análisis de relevancia contextual
headline_content = str(news_row.get('headline', '')).lower()
description_content = str(news_row.get('description', '')).lower()
full_context = f"{headline_content} {description_content}"
filtered_results = []
for entity in entities_list:
surface_form = entity.get('text', '')
entity_types = entity.get('types', [])
surface_lower = surface_form.lower()
# 1. Criterio de Composición: Se valoran positivamente los términos compuestos
is_multi_word = ' ' in surface_form
# 2. Criterio Semántico: Validación frente a la jerarquía de tipos de DBpedia
has_valid_type = any(v_type in t for t in entity_types for v_type in VALID_TYPES)
# 3. Criterio Contextual: Presencia en secciones críticas si carece de tipo definido
is_in_context = f" {surface_lower} " in f" {full_context} " and not entity_types
# 4. Criterio Lexicográfico: Exclusión de términos pertenecientes a stop-words
is_not_stopword = surface_lower not in ENTITY_STOPWORDS
# Evaluación de la condición de permanencia en el dataset
if (is_multi_word or has_valid_type or is_in_context) and is_not_stopword:
filtered_results.append(entity)
return filtered_results
def verificar_integridad_spans(texto_original, datos_anotacion):
"""
Comprueba la precisión de los índices de caracteres (start, end)
frente al contenido textual extraído por el modelo de lenguaje.
Parámetros:
texto_original (str): El cuerpo de la noticia sin procesar.
datos_anotacion (dict): Diccionario con la estructura 5W1H y sus respectivos índices.
"""
total_registros = 0
coincidencias_exactas = 0
discrepancias_detectadas = 0
# Iteración sobre las categorías narrativas (What, Who, When, Where, Why, How)
for categoria, lista_spans in datos_anotacion.items():
# Se omiten claves de error o metadatos que no sean listas de spans
if not isinstance(lista_spans, list):
continue
for i, info_span in enumerate(lista_spans):
# Se ignora la validación si el registro está marcado como vacío
if info_span.get("start") == -1:
continue
total_registros += 1
inicio = info_span.get("start")
fin = info_span.get("end")
texto_esperado = info_span.get("span")
# Extracción del fragmento real utilizando los índices proporcionados
texto_real = texto_original[inicio:fin]
# Validación de igualdad estricta
if texto_real == texto_esperado:
coincidencias_exactas += 1
else:
discrepancias_detectadas += 1
print(f"[ERROR DE INTEGRIDAD] Categoría: {categoria}, Índice: {i}")
print(f" Contenido esperado: '{texto_esperado}'")
print(f" Contenido obtenido: '{texto_real}'")
# Presentación del informe de auditoría final
print(f"\nINFORME DE AUDITORÍA DE SPANS")
print("-" * 35)
print(f"Total de registros analizados: {total_registros}")
print(f"Coincidencias exitosas: {coincidencias_exactas}")
print(f"Discrepancias identificadas: {discrepancias_detectadas}")
print("-" * 35)
if discrepancias_detectadas == 0 and total_registros > 0:
print("La validación ha finalizado satisfactoriamente: todos los índices son íntegros.")