File size: 1,125 Bytes
13c665a
 
d52fe07
 
 
 
13c665a
 
d52fe07
13c665a
d52fe07
13c665a
d52fe07
13c665a
d52fe07
 
 
 
13c665a
d52fe07
13c665a
d52fe07
 
 
 
 
13c665a
d52fe07
13c665a
d52fe07
13c665a
d52fe07
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
---
library_name: transformers
datasets:
- cardiffnlp/tweet_eval
base_model:
- OuteAI/Lite-Oute-1-300M-Instruct
---

# Описание

Следовало дообучить базовую модель с помощью самописной реализации LoRA

# Детали

Морозились все слои кроме слоев лоры
Параметры Лоры - r=8, alpha=16, target_submodules=["k_proj", "v_proj"]
Гиперпараметры самые удачные - 
BATCH_SIZE = 16

LEARNING_RATE = 3e-4

NUM_EPOCHS = 1
И бралось всего 30к из тренировочной выборки
# Метрики 
Удалось достичь Validation F1: 0.35012584001260394
На тесте же 

![image/png](https://cdn-uploads.huggingface.co/production/uploads/6735a8cc092163a4c6068724/GXDT4GDpguL8tyjgp3f2Z.png)

P.S.

Слишком много рандома, почти  всегда вначале были метрики 0 и плохая генерация при рестарте с теми же параметрами выходили метрики сильно лучше.