SAE для CLIP (учебный проект)

Разреженный автоэнкодер, обученный на признаках CLIP-ViT-L/14.

Параметры

  • Входная размерность: 1024
  • Размер словаря (латентов): 131072
  • Коэффициент расширения: 128x
  • Базовая модель: openai/clip-vit-large-patch14
  • Слой: выход визуального энкодера (CLS токен)

Использование

from src.sae import SparseAutoencoder
    
model = SparseAutoencoder.from_pretrained("Landesadel/clip-sae-cifar10", device="cuda")
latents = model.encode(clip_features)  # Получить активации латентов
recon = model.decode(latents)          # Реконструировать признаки

Применение

Интерпретация признаков CLIP Управление генерацией в Kandinsky 2.2 через активацию латентов Учебный проект по интерпретируемости мультимодальных моделей.

Downloads last month
43
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support