llm-course-hw3-lora / README.md
CMCenjoyer's picture
Update README.md
d52fe07 verified
metadata
library_name: transformers
datasets:
  - cardiffnlp/tweet_eval
base_model:
  - OuteAI/Lite-Oute-1-300M-Instruct

Описание

Следовало дообучить базовую модель с помощью самописной реализации LoRA

Детали

Морозились все слои кроме слоев лоры Параметры Лоры - r=8, alpha=16, target_submodules=["k_proj", "v_proj"] Гиперпараметры самые удачные - BATCH_SIZE = 16

LEARNING_RATE = 3e-4

NUM_EPOCHS = 1 И бралось всего 30к из тренировочной выборки

Метрики

Удалось достичь Validation F1: 0.35012584001260394 На тесте же

image/png

P.S.

Слишком много рандома, почти всегда вначале были метрики 0 и плохая генерация при рестарте с теми же параметрами выходили метрики сильно лучше.