You need to agree to share your contact information to access this dataset

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this dataset content.

YAML Metadata Warning:empty or missing yaml metadata in repo card

Check out the documentation for more information.

Resultados del Modelo suPreMe - Pasantía de Verano 2026

En este repositorio se encuentran los resultados del modelo suPreMe, propuesto para el periodo de pasantía de Verano 2026 por Sebastián Vásquez S.

TODO: Adjuntar informe.


📥 Descarga de Archivos

Para una descarga completa y segura de los archivos contenidos, se recomienda el uso del siguiente comando (usando max_workers=1 para evitar problemas de concurrencia en la descarga):

from huggingface_hub import snapshot_download

snapshot_download(
    repo_id="project-oceania/supreme-planktonzilla-results",
    repo_type="dataset",
    local_dir="./supreme-planktonzilla-results",
    max_workers=1
)

📂 Descripción de los Archivos

A continuación se describen los archivos:

  • configs/: Contiene los .yaml utilizados para cada experimento.
  • indices/: Contiene los índices (.json) de las muestras escogidas por k-means del dataset de planctons (4 y 16 shots).
  • models/: Contiene las losses obtenidas (trial0_losses.pt) y los prototipos generados por el entrenamiento (trial0.pth) para cada experimento.
  • results/: Contiene los resultados de la detección OOD de los baselines y de cada experimento supreme. Para mayor velocidad el conjunto de datos de prueba OOD se particionó en 20 tareas, por lo cual deben existir 20 scores, cada uno llamado de la forma scores_node_{k}.pt con k del 0 al 19. OJO: Los scores resultantes no están ordenados (es decir, no se pueden simplemente concatenar y comparar con los datasets ID y OOD). Para ordenarlos se debe usar la siguiente función:
import os
import torch

def merge_and_reorder_results(save_dir: str, num_chunks: int) -> dict:
    """
    Loads partitioned .pt files and reconstructs the original dataset order.
    """
    chunks = []
    
    # 1. Load all partitioned files
    for i in range(num_chunks):
        file_path = os.path.join(save_dir, f"scores_node_{i}.pt")
        if not os.path.exists(file_path):
            raise FileNotFoundError(f"Missing partition file: {file_path}")
        # weights_only=False is needed to load custom dict structures safely
        chunks.append(torch.load(file_path, weights_only=False, map_location="cpu"))
        
    merged_results = {}
    template = chunks[0] # Use the first chunk to figure out the keys
    
    # 2. Iterate through your dataset keys ("id_val", "id", "<ood_name>")
    for dataset_name, dataset_dict in template.items():
        merged_results[dataset_name] = {}
        
        # 3. Iterate through tensor keys ("scores", "id_labels", "preds")
        for tensor_name, first_tensor in dataset_dict.items():
            
            # Calculate the total length of the original dataset
            total_len = sum(len(chunk[dataset_name][tensor_name]) for chunk in chunks)
            
            # Pre-allocate an empty tensor of the exact original size and type
            original_shape = (total_len, *first_tensor.shape[1:])
            merged_tensor = torch.empty(original_shape, dtype=first_tensor.dtype)
            
            # 4. Drop each chunk's data into the correct interleaved slots
            for chunk_id, chunk in enumerate(chunks):
                tensor_part = chunk[dataset_name][tensor_name]
                # Slicing magic: start at chunk_id, jump by num_chunks
                merged_tensor[chunk_id::num_chunks] = tensor_part
                
            merged_results[dataset_name][tensor_name] = merged_tensor
            
    return merged_results

Descripción de los Nombres de ./results

Los archivos tienen nombres intuitivos al comparar los resultados con los descritos en el informe. En cualquier caso a continuación se hace una breve descripción de ellos. Estos se dividen en 5 partes lógicas:

  • Baseline: Resultados zero-shot del modelo CLIP-ViTB con (baseline/supreme_default) y sin finetunning (baseline/experiments_supreme_vitb_wout_ft).
  • suPreMe Vanilla: Resultados de la adaptación hecha para suPreMe utilizando dos lrs (vanilla_two_lrs).
  • Estudio de ablación: Resultados de la agregación de k-means y full set como conjunto de soporte. (ablation_...)
  • Estudio de sensibilidad: Resultados del estudio sensibilización de hiperparámetros. (paramsens_...)
  • Optimización: Resultados de la optimización via optuna. (optimization_final)
Downloads last month
816