Update README.md
Browse files
README.md
CHANGED
|
@@ -7,12 +7,12 @@ language:
|
|
| 7 |
metrics:
|
| 8 |
- f1
|
| 9 |
base_model:
|
| 10 |
-
-
|
| 11 |
---
|
| 12 |
# О модели
|
| 13 |
-
Модель
|
| 14 |
# Результат после дообучения
|
| 15 |
-
Результат после дообучения: macro F1: 0.
|
| 16 |
# Как использовать
|
| 17 |
Хоть модель и обучалась определять тональность твитов, она вполне способна и определять тональность обычных сообщений/текстов
|
| 18 |
|
|
@@ -23,8 +23,8 @@ elif torch.backends.mps.is_available():
|
|
| 23 |
DEVICE = "mps"
|
| 24 |
else:
|
| 25 |
DEVICE = "cpu"
|
| 26 |
-
model = AutoModelForCausalLM.from_pretrained(
|
| 27 |
-
tokenizer = AutoTokenizer.from_pretrained(
|
| 28 |
tokenizer.pad_token = tokenizer.eos_token
|
| 29 |
tokenizer.padding_side = "left"
|
| 30 |
|
|
|
|
| 7 |
metrics:
|
| 8 |
- f1
|
| 9 |
base_model:
|
| 10 |
+
- OuteAI/Lite-Oute-1-300M-Instruct
|
| 11 |
---
|
| 12 |
# О модели
|
| 13 |
+
Модель OuteAI/Lite-Oute-1-300M-Instruct, дообученная с помощью адаптера DoRA, предназначенная для оценки тональности сообщений пользователей. Дообучена на датасете "cardiffnlp/tweet_eval", определяя тональность твитов.
|
| 14 |
# Результат после дообучения
|
| 15 |
+
Результат после дообучения: macro F1: 0.50 (обучалась всего на четверти датасета, три эпохи, ранг r = 8)
|
| 16 |
# Как использовать
|
| 17 |
Хоть модель и обучалась определять тональность твитов, она вполне способна и определять тональность обычных сообщений/текстов
|
| 18 |
|
|
|
|
| 23 |
DEVICE = "mps"
|
| 24 |
else:
|
| 25 |
DEVICE = "cpu"
|
| 26 |
+
model = AutoModelForCausalLM.from_pretrained("georgebu/llm-course-hw3-dora", device_map="DEVICE")
|
| 27 |
+
tokenizer = AutoTokenizer.from_pretrained("georgebu/llm-course-hw3-dora")
|
| 28 |
tokenizer.pad_token = tokenizer.eos_token
|
| 29 |
tokenizer.padding_side = "left"
|
| 30 |
|