""" Módulo de utilidades para el procesamiento de lenguaje natural (NLP). Proporciona herramientas de limpieza, filtrado de stop-words y validación ontológica. """ import nltk import ssl from nltk.corpus import stopwords # Configuración del entorno de descarga de NLTK # Se implementa una gestión de excepciones para evitar errores de verificación SSL try: _create_unverified_https_context = ssl._create_unverified_context except AttributeError: pass else: ssl._create_default_https_context = _create_unverified_https_context # Descarga y preparación del conjunto de palabras vacías (stop-words) nltk.download('stopwords', quiet=True) ENTITY_STOPWORDS = set(stopwords.words('spanish')) def filter_entities_with_context(entities_list, news_row): """ Filtra y depura la lista de entidades mediante una lógica de validación cuádruple: composición, pertinencia semántica, relevancia contextual y léxica. Parámetros: entities_list (list): Diccionarios de entidades obtenidos de DBpedia Spotlight. news_row (pd.Series): Registro original de la noticia para análisis de contexto. Retorna: list: Entidades que superan los criterios de calidad establecidos. """ # Definición de tipos ontológicos aceptados para el dominio de noticias VALID_TYPES = [ 'Person', 'Politician', 'President', # Personas 'Organisation', 'Organization', 'Company', 'PoliticalParty', # Organizaciones 'GovernmentAgency', 'EducationalInstitution', 'Newspaper', 'Place', 'Location', 'PopulatedPlace', 'Country', 'City', # Lugares 'Region', 'AdministrativeRegion', 'Continent', 'Agent' ] # Normalización del contenido textual para el análisis de relevancia contextual headline_content = str(news_row.get('headline', '')).lower() description_content = str(news_row.get('description', '')).lower() full_context = f"{headline_content} {description_content}" filtered_results = [] for entity in entities_list: surface_form = entity.get('text', '') entity_types = entity.get('types', []) surface_lower = surface_form.lower() # 1. Criterio de Composición: Se valoran positivamente los términos compuestos is_multi_word = ' ' in surface_form # 2. Criterio Semántico: Validación frente a la jerarquía de tipos de DBpedia has_valid_type = any(v_type in t for t in entity_types for v_type in VALID_TYPES) # 3. Criterio Contextual: Presencia en secciones críticas si carece de tipo definido is_in_context = f" {surface_lower} " in f" {full_context} " and not entity_types # 4. Criterio Lexicográfico: Exclusión de términos pertenecientes a stop-words is_not_stopword = surface_lower not in ENTITY_STOPWORDS # Evaluación de la condición de permanencia en el dataset if (is_multi_word or has_valid_type or is_in_context) and is_not_stopword: filtered_results.append(entity) return filtered_results def verificar_integridad_spans(texto_original, datos_anotacion): """ Comprueba la precisión de los índices de caracteres (start, end) frente al contenido textual extraído por el modelo de lenguaje. Parámetros: texto_original (str): El cuerpo de la noticia sin procesar. datos_anotacion (dict): Diccionario con la estructura 5W1H y sus respectivos índices. """ total_registros = 0 coincidencias_exactas = 0 discrepancias_detectadas = 0 # Iteración sobre las categorías narrativas (What, Who, When, Where, Why, How) for categoria, lista_spans in datos_anotacion.items(): # Se omiten claves de error o metadatos que no sean listas de spans if not isinstance(lista_spans, list): continue for i, info_span in enumerate(lista_spans): # Se ignora la validación si el registro está marcado como vacío if info_span.get("start") == -1: continue total_registros += 1 inicio = info_span.get("start") fin = info_span.get("end") texto_esperado = info_span.get("span") # Extracción del fragmento real utilizando los índices proporcionados texto_real = texto_original[inicio:fin] # Validación de igualdad estricta if texto_real == texto_esperado: coincidencias_exactas += 1 else: discrepancias_detectadas += 1 print(f"[ERROR DE INTEGRIDAD] Categoría: {categoria}, Índice: {i}") print(f" Contenido esperado: '{texto_esperado}'") print(f" Contenido obtenido: '{texto_real}'") # Presentación del informe de auditoría final print(f"\nINFORME DE AUDITORÍA DE SPANS") print("-" * 35) print(f"Total de registros analizados: {total_registros}") print(f"Coincidencias exitosas: {coincidencias_exactas}") print(f"Discrepancias identificadas: {discrepancias_detectadas}") print("-" * 35) if discrepancias_detectadas == 0 and total_registros > 0: print("La validación ha finalizado satisfactoriamente: todos los índices son íntegros.")