YAML Metadata Warning:empty or missing yaml metadata in repo card
Check out the documentation for more information.
Resultados del Modelo suPreMe - Pasantía de Verano 2026
En este repositorio se encuentran los resultados del modelo suPreMe, propuesto para el periodo de pasantía de Verano 2026 por Sebastián Vásquez S.
TODO: Adjuntar informe.
📥 Descarga de Archivos
Para una descarga completa y segura de los archivos contenidos, se recomienda el uso del siguiente comando (usando max_workers=1 para evitar problemas de concurrencia en la descarga):
from huggingface_hub import snapshot_download
snapshot_download(
repo_id="project-oceania/supreme-planktonzilla-results",
repo_type="dataset",
local_dir="./supreme-planktonzilla-results",
max_workers=1
)
📂 Descripción de los Archivos
A continuación se describen los archivos:
- configs/: Contiene los .yaml utilizados para cada experimento.
- indices/: Contiene los índices (.json) de las muestras escogidas por k-means del dataset de planctons (4 y 16 shots).
- models/: Contiene las losses obtenidas (trial0_losses.pt) y los prototipos generados por el entrenamiento (trial0.pth) para cada experimento.
- results/: Contiene los resultados de la detección OOD de los baselines y de cada experimento supreme. Para mayor velocidad el conjunto de datos de prueba OOD se particionó en 20 tareas, por lo cual deben existir 20 scores, cada uno llamado de la forma scores_node_{k}.pt con k del 0 al 19. OJO: Los scores resultantes no están ordenados (es decir, no se pueden simplemente concatenar y comparar con los datasets ID y OOD). Para ordenarlos se debe usar la siguiente función:
import os
import torch
def merge_and_reorder_results(save_dir: str, num_chunks: int) -> dict:
"""
Loads partitioned .pt files and reconstructs the original dataset order.
"""
chunks = []
# 1. Load all partitioned files
for i in range(num_chunks):
file_path = os.path.join(save_dir, f"scores_node_{i}.pt")
if not os.path.exists(file_path):
raise FileNotFoundError(f"Missing partition file: {file_path}")
# weights_only=False is needed to load custom dict structures safely
chunks.append(torch.load(file_path, weights_only=False, map_location="cpu"))
merged_results = {}
template = chunks[0] # Use the first chunk to figure out the keys
# 2. Iterate through your dataset keys ("id_val", "id", "<ood_name>")
for dataset_name, dataset_dict in template.items():
merged_results[dataset_name] = {}
# 3. Iterate through tensor keys ("scores", "id_labels", "preds")
for tensor_name, first_tensor in dataset_dict.items():
# Calculate the total length of the original dataset
total_len = sum(len(chunk[dataset_name][tensor_name]) for chunk in chunks)
# Pre-allocate an empty tensor of the exact original size and type
original_shape = (total_len, *first_tensor.shape[1:])
merged_tensor = torch.empty(original_shape, dtype=first_tensor.dtype)
# 4. Drop each chunk's data into the correct interleaved slots
for chunk_id, chunk in enumerate(chunks):
tensor_part = chunk[dataset_name][tensor_name]
# Slicing magic: start at chunk_id, jump by num_chunks
merged_tensor[chunk_id::num_chunks] = tensor_part
merged_results[dataset_name][tensor_name] = merged_tensor
return merged_results
Descripción de los Nombres de ./results
Los archivos tienen nombres intuitivos al comparar los resultados con los descritos en el informe. En cualquier caso a continuación se hace una breve descripción de ellos. Estos se dividen en 5 partes lógicas:
- Baseline: Resultados zero-shot del modelo CLIP-ViTB con (baseline/supreme_default) y sin finetunning (baseline/experiments_supreme_vitb_wout_ft).
- suPreMe Vanilla: Resultados de la adaptación hecha para suPreMe utilizando dos lrs (vanilla_two_lrs).
- Estudio de ablación: Resultados de la agregación de k-means y full set como conjunto de soporte. (ablation_...)
- Estudio de sensibilidad: Resultados del estudio sensibilización de hiperparámetros. (paramsens_...)
- Optimización: Resultados de la optimización via optuna. (optimization_final)
- Downloads last month
- 816