VK LLM Course. Задание #3. Дообучение LoRA

Модель — дообученная OuteAI/Lite-Oute-1-300M-Instruct на датасете cardiffnlp/tweet_eval. Дообучаем модель с помощью PEFT определять тональность твитов. Модель адаптируется к специфичному стилю текстов твитов по датасету.

Параметры:

  • BATCH_SIZE = 128
  • LEARNING_RATE = 1e-4
  • NUM_EPOCHS = 1
  • rank = 8, alpha = 16, target_submodules = ["k_proj", "v_proj"]

Дообучение проводилось на NVIDIA A100.

Метрики качества

До дообучения: Macro F1 = 0.17 image/png

После дообучения LoRA: Macro F1 = 0.52 image/png

Пример генерации после LoRA

"QT @user In the original draft of the 7th book, Remus Lupin survived the Battle of Hogwarts. #HappyBirthdayRemusLupin"
positive
assistant
positive 
 assistant
positive 

==========
"Ben Smith / Smith (concussion) remains out of the lineup Thursday, Curtis #NHL #SJ"
neutral
assistant
neutral 
 assistant
neutral 

==========
Downloads last month
7
Safetensors
Model size
0.3B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Collection including pbedrin/llm-course-hw3-lora