llm-course-hw3-lora / README.md
CMCenjoyer's picture
Update README.md
d52fe07 verified
---
library_name: transformers
datasets:
- cardiffnlp/tweet_eval
base_model:
- OuteAI/Lite-Oute-1-300M-Instruct
---
# Описание
Следовало дообучить базовую модель с помощью самописной реализации LoRA
# Детали
Морозились все слои кроме слоев лоры
Параметры Лоры - r=8, alpha=16, target_submodules=["k_proj", "v_proj"]
Гиперпараметры самые удачные -
BATCH_SIZE = 16
LEARNING_RATE = 3e-4
NUM_EPOCHS = 1
И бралось всего 30к из тренировочной выборки
# Метрики
Удалось достичь Validation F1: 0.35012584001260394
На тесте же
![image/png](https://cdn-uploads.huggingface.co/production/uploads/6735a8cc092163a4c6068724/GXDT4GDpguL8tyjgp3f2Z.png)
P.S.
Слишком много рандома, почти всегда вначале были метрики 0 и плохая генерация при рестарте с теми же параметрами выходили метрики сильно лучше.