File size: 5,319 Bytes
77fb120
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
"""
Módulo de utilidades para el procesamiento de lenguaje natural (NLP).
Proporciona herramientas de limpieza, filtrado de stop-words y validación ontológica.
"""

import nltk
import ssl
from nltk.corpus import stopwords

# Configuración del entorno de descarga de NLTK
# Se implementa una gestión de excepciones para evitar errores de verificación SSL
try:
    _create_unverified_https_context = ssl._create_unverified_context
except AttributeError:
    pass
else:
    ssl._create_default_https_context = _create_unverified_https_context

# Descarga y preparación del conjunto de palabras vacías (stop-words)
nltk.download('stopwords', quiet=True)
ENTITY_STOPWORDS = set(stopwords.words('spanish'))

def filter_entities_with_context(entities_list, news_row):
    """
    Filtra y depura la lista de entidades mediante una lógica de validación cuádruple:
    composición, pertinencia semántica, relevancia contextual y léxica.

    Parámetros:
        entities_list (list): Diccionarios de entidades obtenidos de DBpedia Spotlight.
        news_row (pd.Series): Registro original de la noticia para análisis de contexto.

    Retorna:
        list: Entidades que superan los criterios de calidad establecidos.
    """
    
    # Definición de tipos ontológicos aceptados para el dominio de noticias
    VALID_TYPES = [
        'Person', 'Politician', 'President',                      # Personas
        'Organisation', 'Organization', 'Company', 'PoliticalParty', # Organizaciones
        'GovernmentAgency', 'EducationalInstitution', 'Newspaper', 
        'Place', 'Location', 'PopulatedPlace', 'Country', 'City',    # Lugares
        'Region', 'AdministrativeRegion', 'Continent', 'Agent'
    ]

    # Normalización del contenido textual para el análisis de relevancia contextual
    headline_content = str(news_row.get('headline', '')).lower()
    description_content = str(news_row.get('description', '')).lower()
    full_context = f"{headline_content} {description_content}"

    filtered_results = []

    for entity in entities_list:
        surface_form = entity.get('text', '')
        entity_types = entity.get('types', [])
        surface_lower = surface_form.lower()

        # 1. Criterio de Composición: Se valoran positivamente los términos compuestos
        is_multi_word = ' ' in surface_form

        # 2. Criterio Semántico: Validación frente a la jerarquía de tipos de DBpedia
        has_valid_type = any(v_type in t for t in entity_types for v_type in VALID_TYPES)

        # 3. Criterio Contextual: Presencia en secciones críticas si carece de tipo definido
        is_in_context = f" {surface_lower} " in f" {full_context} " and not entity_types

        # 4. Criterio Lexicográfico: Exclusión de términos pertenecientes a stop-words
        is_not_stopword = surface_lower not in ENTITY_STOPWORDS

        # Evaluación de la condición de permanencia en el dataset
        if (is_multi_word or has_valid_type or is_in_context) and is_not_stopword:
            filtered_results.append(entity)

    return filtered_results

def verificar_integridad_spans(texto_original, datos_anotacion):
    """
    Comprueba la precisión de los índices de caracteres (start, end) 
    frente al contenido textual extraído por el modelo de lenguaje.
    
    Parámetros:
        texto_original (str): El cuerpo de la noticia sin procesar.
        datos_anotacion (dict): Diccionario con la estructura 5W1H y sus respectivos índices.
    """
    total_registros = 0
    coincidencias_exactas = 0
    discrepancias_detectadas = 0

    # Iteración sobre las categorías narrativas (What, Who, When, Where, Why, How)
    for categoria, lista_spans in datos_anotacion.items():
        # Se omiten claves de error o metadatos que no sean listas de spans
        if not isinstance(lista_spans, list):
            continue
            
        for i, info_span in enumerate(lista_spans):
            # Se ignora la validación si el registro está marcado como vacío
            if info_span.get("start") == -1:
                continue

            total_registros += 1
            inicio = info_span.get("start")
            fin = info_span.get("end")
            texto_esperado = info_span.get("span")
            
            # Extracción del fragmento real utilizando los índices proporcionados
            texto_real = texto_original[inicio:fin]

            # Validación de igualdad estricta
            if texto_real == texto_esperado:
                coincidencias_exactas += 1
            else:
                discrepancias_detectadas += 1
                print(f"[ERROR DE INTEGRIDAD] Categoría: {categoria}, Índice: {i}")
                print(f"   Contenido esperado: '{texto_esperado}'")
                print(f"   Contenido obtenido: '{texto_real}'")

    # Presentación del informe de auditoría final
    print(f"\nINFORME DE AUDITORÍA DE SPANS")
    print("-" * 35)
    print(f"Total de registros analizados: {total_registros}")
    print(f"Coincidencias exitosas:        {coincidencias_exactas}")
    print(f"Discrepancias identificadas:   {discrepancias_detectadas}")
    print("-" * 35)

    if discrepancias_detectadas == 0 and total_registros > 0:
        print("La validación ha finalizado satisfactoriamente: todos los índices son íntegros.")