File size: 1,125 Bytes
13c665a d52fe07 13c665a d52fe07 13c665a d52fe07 13c665a d52fe07 13c665a d52fe07 13c665a d52fe07 13c665a d52fe07 13c665a d52fe07 13c665a d52fe07 13c665a d52fe07 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 |
---
library_name: transformers
datasets:
- cardiffnlp/tweet_eval
base_model:
- OuteAI/Lite-Oute-1-300M-Instruct
---
# Описание
Следовало дообучить базовую модель с помощью самописной реализации LoRA
# Детали
Морозились все слои кроме слоев лоры
Параметры Лоры - r=8, alpha=16, target_submodules=["k_proj", "v_proj"]
Гиперпараметры самые удачные -
BATCH_SIZE = 16
LEARNING_RATE = 3e-4
NUM_EPOCHS = 1
И бралось всего 30к из тренировочной выборки
# Метрики
Удалось достичь Validation F1: 0.35012584001260394
На тесте же

P.S.
Слишком много рандома, почти всегда вначале были метрики 0 и плохая генерация при рестарте с теми же параметрами выходили метрики сильно лучше. |