SpanishMicroEvents / src /multimodal /clip_utils.py
martsola's picture
Initial dataset release for ACM MM 2026
77fb120 verified
"""
Mejora F — Texto CLIP más informativo.
El pipeline original usa los labels c-TF-IDF (4 keywords como
"lince_cría_ejemplares_hábitat") como texto para CLIP. Esto produce
una señal de solo 1.10× sobre baseline aleatorio.
Este módulo proporciona funciones para seleccionar el headline más
representativo de cada micro-evento como texto CLIP, obteniendo
oraciones completas y naturales mejor alineadas con el espacio visual.
Uso típico en Colab:
from src.multimodal.clip_utils import build_clip_text_inputs, compute_clip_coherence
text_inputs = build_clip_text_inputs(df_final, clip_model, clip_preprocess)
df_clip = compute_clip_coherence(df_final, text_inputs, image_embeddings)
"""
from __future__ import annotations
import logging
from typing import Literal, Optional
import numpy as np
import pandas as pd
from sklearn.metrics.pairwise import cosine_similarity
logger = logging.getLogger(__name__)
TextStrategy = Literal['best_headline', 'concat_headlines', 'label_jit']
# ─────────────────────────────────────────────────────────────────────────────
# Selección del texto representativo por micro-evento
# ─────────────────────────────────────────────────────────────────────────────
def _centroid_representative_headline(
grupo: pd.DataFrame,
embeddings_matrix: np.ndarray,
) -> str:
"""
Devuelve el headline del artículo más cercano al centroide semántico
del micro-evento (mejor representante del grupo).
"""
idx = grupo.index.tolist()
if not idx:
return ''
embs = embeddings_matrix[idx]
centroide = embs.mean(axis=0, keepdims=True)
sims = cosine_similarity(centroide, embs)[0]
best_local = int(np.argmax(sims))
best_global = idx[best_local]
headline = grupo.loc[best_global, 'headline']
return str(headline) if not pd.isna(headline) else ''
def build_event_texts(
df_final: pd.DataFrame,
embeddings_matrix: Optional[np.ndarray] = None,
strategy: TextStrategy = 'best_headline',
max_headlines: int = 3,
event_id_col: str = 'micro_event_id',
headline_col: str = 'headline',
) -> dict[str, str]:
"""
Construye un diccionario {micro_event_id → texto} para usar como input de CLIP.
Estrategias disponibles
-----------------------
'best_headline' : El headline del artículo más cercano al centroide del evento.
Requiere embeddings_matrix.
'concat_headlines' : Concatenación de los max_headlines titulares más largos.
No requiere embeddings.
'label_jit' : Usa el label c-TF-IDF actual (baseline, para comparación).
Parámetros
----------
df_final : DataFrame con columnas micro_event_id y headline.
embeddings_matrix : Array (N_total, D) de embeddings (solo para 'best_headline').
strategy : Estrategia de selección de texto.
max_headlines : Número máximo de headlines a concatenar ('concat_headlines').
event_id_col : Nombre de la columna de ID de micro-evento.
headline_col : Nombre de la columna de titular.
Retorna
-------
dict {event_id: texto}
"""
texts: dict[str, str] = {}
for event_id, grupo in df_final.groupby(event_id_col):
if strategy == 'best_headline':
if embeddings_matrix is None:
raise ValueError("'best_headline' requiere embeddings_matrix")
texto = _centroid_representative_headline(grupo, embeddings_matrix)
elif strategy == 'concat_headlines':
headlines = (
grupo[headline_col]
.dropna()
.sort_values(key=lambda s: s.str.len(), ascending=False)
.head(max_headlines)
.tolist()
)
texto = '. '.join(h.strip().rstrip('.') for h in headlines if h.strip())
elif strategy == 'label_jit':
label = grupo['label_jit'].dropna().iloc[0] if 'label_jit' in grupo.columns else ''
texto = str(label).replace('_', ' ')
else:
raise ValueError(f"Estrategia desconocida: {strategy!r}")
texts[str(event_id)] = texto
empty = sum(1 for t in texts.values() if not t.strip())
logger.info(
f"Textos CLIP construidos ({strategy}): "
f"{len(texts)} eventos, {empty} vacíos ({empty/max(len(texts),1)*100:.1f}%)"
)
return texts
# ─────────────────────────────────────────────────────────────────────────────
# Generación de embeddings de texto CLIP
# ─────────────────────────────────────────────────────────────────────────────
def encode_texts_clip(
event_texts: dict[str, str],
clip_model,
clip_tokenize,
device: str = 'cuda',
batch_size: int = 256,
) -> dict[str, np.ndarray]:
"""
Codifica los textos de cada micro-evento con CLIP y devuelve
{event_id: embedding L2-normalizado (512,)}.
Parámetros
----------
event_texts : Salida de build_event_texts().
clip_model : Modelo CLIP (openai/clip).
clip_tokenize : clip.tokenize.
device : 'cuda' o 'cpu'.
batch_size : Artículos por batch (CLIP text encoder es rápido).
"""
import torch
event_ids = list(event_texts.keys())
texts = [event_texts[eid] for eid in event_ids]
embeddings: dict[str, np.ndarray] = {}
clip_model.eval()
with torch.no_grad():
for i in range(0, len(texts), batch_size):
batch_ids = event_ids[i:i + batch_size]
batch_txts = texts[i:i + batch_size]
# Truncar a 77 tokens (límite CLIP)
tokens = clip_tokenize(batch_txts, truncate=True).to(device)
feats = clip_model.encode_text(tokens)
feats = feats / feats.norm(dim=-1, keepdim=True) # L2 normalize
feats = feats.cpu().numpy().astype(np.float32)
for eid, vec in zip(batch_ids, feats):
embeddings[eid] = vec
logger.info(f"Embeddings de texto CLIP generados: {len(embeddings)} eventos")
return embeddings
# ─────────────────────────────────────────────────────────────────────────────
# Cómputo de coherencia imagen-texto
# ─────────────────────────────────────────────────────────────────────────────
def compute_clip_coherence(
df_resumen: pd.DataFrame,
text_embeddings: dict[str, np.ndarray],
image_embeddings_by_event: dict[str, np.ndarray],
event_id_col: str = 'micro_event_id',
) -> pd.DataFrame:
"""
Calcula la coherencia coseno imagen-texto para cada micro-evento.
Parámetros
----------
df_resumen : DataFrame resumen con una fila por micro-evento.
text_embeddings : {event_id: text_emb(512,)} de encode_texts_clip().
image_embeddings_by_event: {event_id: image_emb_mean(512,)} de la Fase 3.
event_id_col : Nombre de la columna de ID.
Retorna
-------
df_resumen con columna 'clip_text_coherence_v2' añadida.
"""
coherences: list[float] = []
for _, row in df_resumen.iterrows():
eid = str(row[event_id_col])
t_emb = text_embeddings.get(eid)
i_emb = image_embeddings_by_event.get(eid)
if t_emb is None or i_emb is None:
coherences.append(float('nan'))
continue
t = t_emb.reshape(1, -1)
im = i_emb.reshape(1, -1)
coh = float(cosine_similarity(t, im)[0, 0])
coherences.append(coh)
df_out = df_resumen.copy()
df_out['clip_text_coherence'] = coherences
valid = [c for c in coherences if not np.isnan(c)]
if valid:
baseline = np.mean(valid)
real_m = np.mean(valid)
print(f"\nCoherencia CLIP (estrategia mejorada):")
print(f" N : {len(valid)}")
print(f" Media : {real_m:.4f}")
print(f" Mediana : {np.median(valid):.4f}")
print(f" Std : {np.std(valid):.4f}")
return df_out
# ─────────────────────────────────────────────────────────────────────────────
# Comparativa baseline vs improved
# ─────────────────────────────────────────────────────────────────────────────
def compare_coherence_strategies(
df_resumen: pd.DataFrame,
text_emb_original: dict[str, np.ndarray],
text_emb_improved: dict[str, np.ndarray],
image_embeddings_by_event: dict[str, np.ndarray],
event_id_col: str = 'micro_event_id',
) -> pd.DataFrame:
"""
Calcula la coherencia con ambas estrategias (label_jit vs best_headline)
y muestra una comparativa directa.
Útil para validar cuánto mejora la señal imagen-texto antes de reemplazar
el pipeline completo.
"""
df1 = compute_clip_coherence(df_resumen, text_emb_original, image_embeddings_by_event, event_id_col)
df2 = compute_clip_coherence(df_resumen, text_emb_improved, image_embeddings_by_event, event_id_col)
c_orig = df1['clip_text_coherence'].dropna()
c_impr = df2['clip_text_coherence'].dropna()
# Baseline aleatorio (permutación)
rng = np.random.default_rng(42)
event_ids = list(image_embeddings_by_event.keys())
img_matrix = np.stack([image_embeddings_by_event[e] for e in event_ids])
txt_improved = np.stack([text_emb_improved[e] for e in event_ids if e in text_emb_improved])
if len(txt_improved) == len(img_matrix):
perm = rng.permutation(len(img_matrix))
baseline = float(cosine_similarity(txt_improved, img_matrix[perm]).diagonal().mean())
else:
baseline = float('nan')
print("\n" + "=" * 55)
print(" COMPARATIVA DE ESTRATEGIAS DE TEXTO CLIP")
print("=" * 55)
print(f" Baseline aleatorio (random) : {baseline:.4f}")
print(f" label c-TF-IDF (original) : {c_orig.mean():.4f} "
f"({c_orig.mean()/baseline:.2f}× baseline)")
print(f" Best headline (mejorado) : {c_impr.mean():.4f} "
f"({c_impr.mean()/baseline:.2f}× baseline)")
print("=" * 55)
return df2