llm-course-hw3
Collection
VK LLM Course. Задание #3. Дообучение LLM методами PEFT
•
3 items
•
Updated
Модель — дообученная TinyLlama/TinyLlama-1.1B-Chat-v1.0 на датасете cardiffnlp/tweet_eval. Дообучаем модель с помощью PEFT определять тональность твитов. Модель адаптируется к специфичному стилю текстов твитов по датасету.
Обоснование выбранных параметров
По документации BitsAndBytes / статье о QloRA:
По статье о QloRA / документации PEFT LoRA применяем ко всем линейным слоям (target_modules="all-linear").
Остальные гиперпараметры LoraConfig так же согласно статье о QloRA, приложения A1 и B2. Learning rate 1e-5 выбран экспериментально после нескольких попыток обучения.
Дообучение производилось в Kaggle на GPU P100.