id
int64
18
21.1k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 16:54:39
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 16:54:39
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
907
2026-02-23T10:47:14.247000Z
2026-02-23T10:47:14.247000Z
Lec.
Для каждой модели BERT результатом классификации является численная метка рубрики ГРНТИ, к которой подбирается текстовое представление из словаря ГРНТИ
false
true
false
906
2026-02-23T10:47:12.703000Z
2026-02-23T10:47:12.703000Z
Lec.
Иерархические классификаторы учитывают структуру взаимосвязей между классами, организованную в виде дерева (рис. 14)
false
true
false
905
2026-02-23T10:47:11.007000Z
2026-02-23T10:47:11.007000Z
Lec.
Диаграмма работы плоского классификатора
false
false
false
904
2026-02-23T10:47:09.260000Z
2026-02-23T17:20:48.820000Z
Lec.
Названия классов 1-го уровня, предсказания моделей для 1-го уровня ГРНТИ не учитываются, пому процесс обучения модели для предсказания 2-го уровня аналогичен процессу обучения для модели 1-го уровня ГРНТИ
Названия классов 1-го уровня не учитываются, поскольку предсказания моделей для 1-го уровня ГРНТИ аналогичны процессу обучения модели для предсказания 2-го уровня, который является аналогом процесса обучения модели 1-го уровня ГРНТИ.
false
true
true
903
2026-02-23T10:47:07.630000Z
2026-02-23T13:35:40.713000Z
Lec.
При использовании плоского классификатора все классы рассматриваются как независимые и равноправные, без учета возможных взаимосвязей между ними (рис. 13)
При использовании плоского классификатора все классы рассматриваются как независимые и равноправные, без учета возможных взаимосвязей между ними (см. рис. 13)
false
true
true
902
2026-02-23T10:47:05.993000Z
2026-02-23T10:47:05.993000Z
Lec.
Процесс подготовки данных для тренировки совпадает с процессом подготовки данных для плоского классификатора, но в начало текста каждой статьи добавляются названия рубрик 2-го, порядка, к которым она относится по мнению экспертов
false
true
false
901
2026-02-23T10:47:04.097000Z
2026-02-23T13:50:10.916000Z
Lec.
Для плоского классификатора после удаления экземпляров классов выполняется обработка данных, совпадающая с обработкой данных для 1-го датасета при классификации по 1-му уровню ГРНТИ
Для плоского классификатора после удаления экземпляров классов выполняется обработка данных, совпадающая с обработкой данных для 1-го датасета при классификации по 1-му уровню ГРНТ
false
true
true
900
2026-02-23T10:47:02.512000Z
2026-02-23T10:47:02.512000Z
Lec.
Количество оставшихся классов 2-й уровень ГРНТИ
false
true
false
899
2026-02-23T10:47:00.991000Z
2026-02-23T10:47:00.991000Z
Lec.
Кол-во удаляемых классов 2-й уровень ГРНТИ
false
false
false
898
2026-02-23T10:46:59.518000Z
2026-02-23T16:53:21.055000Z
Lec.
Ниже представлены графики количества экземпляров для удаленных (рис. 11) и оставленных классов (рис. 12)
Ниже представлены графики количества экземпляров для удаленных (рис. 11) и оставленных классов (рис. 12).
false
true
true
897
2026-02-23T10:46:57.873000Z
2026-02-23T13:24:36.101000Z
Lec.
После удаления 207 классов ГРНТИ-1 в обучающей выборке осталось 279659 текстов, распределенных по 246-классам ГРНТИ-1
После удаления 207 классов ГРНТИ-1 в обучающей выборке осталось 279659 текстов, распределенных по 246 классам ГРНТИ-1
false
true
true
896
2026-02-23T10:46:56.021000Z
2026-02-23T10:46:56.021000Z
Lec.
Для решения задачи мультиклассификации для 2-го уровня ГРНТИ был составлен тренировочный датасет:. удалены экземпляры 207 классов ГРНТИ 2-ого уровня, которые имеют < 300 текстов;. удалены экземпляры датасета, текст для которых имеет < 10 символов
false
true
false
895
2026-02-23T10:46:54.444000Z
2026-02-23T13:46:29.316000Z
Lec.
График зависимости f1 от threshold на тестовом датасете при обучении с методом LORA
График зависимости f1 от threshold на тестовом датасете при обучении методом LORA.
false
true
true
894
2026-02-23T10:46:52.811000Z
2026-02-23T18:10:07.236000Z
Lec.
График зависимости f1 от threshold на тестовом датасете при обучении только слоя для классификации
График зависимости f1 от threshold на тестовом датасете при обучении только слоя для классификации
false
true
true
893
2026-02-23T10:46:50.682000Z
2026-02-23T10:46:50.682000Z
Lec.
Графики для результатов тестирования при обучении только слоя классификации (рис. 9) и обучении с методом LoRA (рис. 10) представлены ниже
false
true
false
892
2026-02-23T10:46:48.645000Z
2026-02-23T10:46:48.645000Z
Lec.
Обучение с методом LoRA. 0.45. 0,79. 0,802. 0,8
false
false
false
891
2026-02-23T10:46:46.974000Z
2026-02-23T10:46:46.974000Z
Lec.
Обучение слоя для классификации. 0,35. 0,667. 0,71. 0,705
false
false
false
890
2026-02-23T10:46:45.226000Z
2026-02-23T10:46:45.226000Z
Lec.
Таблица 3 — Усредненные метрики для обучения только слоя классификации и только с методом LoRA
false
false
false
889
2026-02-23T10:46:43.719000Z
2026-02-23T10:46:43.719000Z
Lec.
Ниже представлена таблица с результатами для метрик (таб. 3)
false
true
false
888
2026-02-23T10:46:42.230000Z
2026-02-23T10:46:42.230000Z
Lec.
При обучении использовались тренировочные и тестовые данные 1-го датасета, обучение происходило в течение 8 эпох
false
false
false
887
2026-02-23T10:46:40.190000Z
2026-02-23T10:46:40.190000Z
Lec.
Для решения задачи классификации 1-го уровня ГРНТИ моделью BERT были предложены два способа: использование метода PEFT LoRA и обучение только слоя классификации
false
true
false
886
2026-02-23T10:46:38.561000Z
2026-02-23T16:38:45.793000Z
Lec.
График зависимости f1 от threshold на тестовом датасете для классификации при добавлении расшифровок рядом с сокращениями
График зависимости f1 от threshold на тестовом датасете для классификации при добавлении расшифровок рядом с сокращениями.
false
true
true
885
2026-02-23T10:46:36.833000Z
2026-02-23T10:46:36.833000Z
Lec.
График зависимости f1 от threshold на тестовом датасете для классификации при замене сокращений на их расшифровки
false
true
false
884
2026-02-23T10:46:35.104000Z
2026-02-23T17:08:12.555000Z
Lec.
График зависимости f1 от threshold на тестовом датасете для классификации без использования словаря сокращений
График зависимости f1 от threshold на тестовом датасете для классификации без использования словаря сокращений.
false
true
true
883
2026-02-23T10:46:33.243000Z
2026-02-23T13:33:29.655000Z
Lec.
Графики для результатов тестирования моделей, обученных на 1-м, 2-м, 3-м датасете, представлены ниже (рис. 6, 7, 8)
Графики результатов тестирования моделей, обученных на 1-м, 2-м и 3-м датасетах, представлены ниже (рис. 6, 7 и 8).
false
true
true
882
2026-02-23T10:46:31.582000Z
2026-02-23T10:46:31.582000Z
Lec.
Расшифровки рядом с сокращениями. 0.5. 0,82. 0,839. 0,838
false
false
false
881
2026-02-23T10:46:29.761000Z
2026-02-23T10:46:29.761000Z
Lec.
Замена сокращений расшифровками. 0.5. 0,822. 0,84. 0,838
false
false
false
880
2026-02-23T10:46:28.052000Z
2026-02-23T10:46:28.052000Z
Lec.
Без словаря сокращений. 0.45. 0,823. 0,84. 0,839
false
false
false
879
2026-02-23T10:46:26.155000Z
2026-02-23T10:46:26.155000Z
Lec.
Лучший threshold. f1_macro. f1_micro. f1_weighted
true
false
false
878
2026-02-23T10:46:24.001000Z
2026-02-23T15:40:39.994000Z
Lec.
Использование словаря сокращений
Используя словарь сокращений.
false
true
true
877
2026-02-23T10:46:22.108000Z
2026-02-23T10:46:22.108000Z
Lec.
Таблица 2 — Усредненные метрики для разных вариантов работы со словарем сокращений
false
true
false
876
2026-02-23T10:46:20.219000Z
2026-02-23T13:46:10.927000Z
Lec.
Таблица для сравнения усредненных метрик f1 для различных вариантов работы со словарем сокращений представлена ниже (таб. 2)
Таблица для сравнения усредненных метрик f1 различных вариантов работы со словарем сокращений представлена ниже (таб. 2).
false
true
true
875
2026-02-23T10:46:18.653000Z
2026-02-23T10:46:18.653000Z
Lec.
При обучении на 1-м, 2-м, 3-м датасете в течение 16 эпох были получены лучшие результаты по метрике f1-score
false
true
false
874
2026-02-23T10:46:17.021000Z
2026-02-23T17:39:44.114000Z
Lec.
Для 3-го и 1-го датасета данные совпадают, но рядом со всеми сокращениями в текст добавлены их расшифровки
Для 3-го и 1-го датасета данные совпадают, но к каждому сокращению добавлены их расшифровки.
false
true
true
873
2026-02-23T10:46:15.498000Z
2026-02-23T10:46:15.498000Z
Lec.
Данные для 2-го и 1-го датасета совпадают, но все сокращения заменены на их расшифровки
true
true
false
872
2026-02-23T10:46:13.643000Z
2026-02-23T13:47:01.281000Z
Lec.
Применение к текстам токенизатора “DeepPavlov/rubert-base-cased” c понижением регистра букв для получения следующей информации:. input_ids — массив чисел, каждое из которых соответствует одному токену;. attention_mask — массив нулей и единиц, который указывает модели, какие токены следует учитывать, а какие игнорировать;. token_type_ids — массив, используется в моделях, в которые подаются несколько последовательностей для их разделения
Применение к текстам токенизатора «DeepPavlov/rubert-base-cased» с понижением регистра букв для получения следующей информации: input_ids — массив чисел, каждое из которых соответствует одному токену. attention_mask — массив нулей и единиц, который указывает модели, какие токены следует учитывать, а какие игнорировать. token_type_ids — массив, используемый в моделях, в которые подаются несколько последовательностей для их разделения.
false
true
true
871
2026-02-23T10:46:11.029000Z
2026-02-23T13:41:55.283000Z
Lec.
Кодирование классов;
Кодировка классов;
false
true
true
870
2026-02-23T10:46:09.284000Z
2026-02-23T17:07:31.409000Z
Lec.
Разделение названий, текстов и ключевых слов специальными символами для каждой статьи (“SEP”);
Разделение названий, текстов и ключевых слов специальными символами для каждой статьи («SEP»);
false
true
true
869
2026-02-23T10:46:07.675000Z
2026-02-23T10:46:07.675000Z
Lec.
После удаления статей из датасета выполняются следующие действия:
false
true
false
868
2026-02-23T10:46:04.269000Z
2026-02-23T10:46:04.269000Z
Lec.
Количество оставшихся текстов по рубрикам 1-го уровня ГРНТИ
false
true
false
867
2026-02-23T10:46:02.764000Z
2026-02-23T10:46:02.764000Z
Lec.
Количество удаляемых текстов. 1-й уровень ГРНТИ
false
true
false
866
2026-02-23T10:46:01.272000Z
2026-02-23T10:46:01.272000Z
Lec.
После удаления 11 классов ГРНТИ-1 в обучающей выборке осталось 290794 текстов, распределенных по 36 классам ГРНТИ-1
false
true
false
865
2026-02-23T10:45:59.712000Z
2026-02-23T13:40:05.379000Z
Lec.
Ниже представлены графики количества экземпляров для удаленных (рис. 4) и оставленных классов (рис. 5)
Ниже представлено два графика: количество экземпляров для удаленных (рис. 4) и оставленных классов (рис. 5)
false
true
true
864
2026-02-23T10:45:58.065000Z
2026-02-23T16:20:48.475000Z
Lec.
В тестовом датасете находится 166183 текстов, распределенных по классам ГРНТИ 1-го, 2-го и 3-го уровней
В тестовом датасете находится 166183 количества текстов, распределенных по классам ГРНТИ 1-го, 2-го и 3-го уровней.
false
true
true
863
2026-02-23T10:45:56.293000Z
2026-02-23T15:53:21.255000Z
Lec.
При составлении тестового датасета не удалялись статьи с рубриками ГРНТИ, которые отсутствуют в тренировочном датасете, что позволило корректно оценивать качество работы системы классификации
При составлении тестового датасета не удалялись статьи с рубриками ГРНТИ, которые отсутствуют в тренировочном наборе данных, что позволило корректно оценивать качество работы системы классификации
false
true
true
862
2026-02-23T10:45:54.709000Z
2026-02-23T10:45:54.709000Z
Lec.
Ниже описан процесс обработки данных для дальнейшего обучения:. 1) Для каждой статьи из тренировочного датасета кодируются рубрики ГРНТИ 1-ого уровня числами от 0 до M-1, где M— число уникальных рубрик 2-ого уровня в тренировочных данных, сохраняем словарь, где ключи: рубрики ГРНТИ 2-ого уровня, а значения: кодировки рубрик. 2) Для каждой статьи из тренировочного датасета соединяем в одну строку через «[SEP]» название, аннотацию, ключевые слова, затем текст кодируется (применяется кодировщик BERT). 3) Из датасета удалены 11 классов ГРНТИ 1-ого уровня с наименьшим количеством экземпляров (< 600 текстов в рубрике);. 4) Удалены экземпляры датасета, текст для которых имеет < 10 символов
false
false
false
861
2026-02-23T10:45:52.651000Z
2026-02-23T10:45:52.651000Z
Lec.
Для составления 1-го тренировочного датасета не использовался словарь сокращений
false
true
false
860
2026-02-23T10:45:50.804000Z
2026-02-23T13:33:55.586000Z
Lec.
Для проверки данного гипотезу было составлено 3 обучающих и тестовых датасета
Для проверки данной гипотезы было составлено 3 обучающих и тестовых датасета
false
true
true
859
2026-02-23T10:45:48.969000Z
2026-02-23T13:40:15.572000Z
Lec.
Было сделано предположение, что использование словаря сокращений ВИНИТИ РАН при подготовке текстов для классификации оказывает позитивное влияние на качество предсказаний
Было сделано предположение, что использование словаря сокращений ВИНИТИ РАН при подготовке текстов для классификации оказывает положительное влияние на качество предсказаний.
false
true
true
858
2026-02-23T10:45:47.158000Z
2026-02-23T15:52:31.147000Z
Lec.
В текстах аннотаций научных статей встречаются аббревиатуры и сокращения
В текстах аннотаций научных статей встречаются аббревиатуры и сокращения
false
true
true
857
2026-02-23T10:45:45.367000Z
2026-02-23T10:45:45.367000Z
Lec.
Для отслеживания процесса обучения сохранялась модель и осуществлялся подсчет метрик в конце эпох
false
true
false
856
2026-02-23T10:45:43.775000Z
2026-02-23T16:44:48.264000Z
Lec.
Для одного экземпляра датасета текст для статьи разделялся на 512 токенов
Для одного экземпляра датасета текст для статьи разделялся на 512 токенов.
false
true
true
855
2026-02-23T10:45:41.842000Z
2026-02-23T13:25:45.124000Z
Lec.
В результате экспериментов данное значение оказалось оптимальным для обучения, поскольку при размере батча 16 обучение останавливалось при обучении с использованием имеющейся видеокарты
В результате экспериментов данное значение оказалось оптимальным для обучения, поскольку при размере батча 16 обучение останавливалось при использовании имеющейся видеокарты
false
true
true
854
2026-02-23T10:45:40.196000Z
2026-02-23T17:59:15.721000Z
Lec.
При обучении моделей данные предавались батчами размера 8, т.е. за одну итерацию обучения в модель передавались данные восьми статей
При обучении моделей данные предавались батчами размера 8, то есть за одну итерацию обучения в модель передавались данные восьми статей.
false
true
true
853
2026-02-23T10:45:38.008000Z
2026-02-23T18:05:54.151000Z
Lec.
Формула изменения параметров для AdamW:. где:. — экспоненциальное взвешенное дифференциала функции потерь на шаге ;. — экспоненциальное взвешенное квадрата дифференциала функции потерь на шаге ;. — параметры модели на шаге ;. — дифференциал функции потерь;. — исходный learning rate;. — коэффициент сглаживания;. — коэффициент регуляризации;. — коэффициенты учета предыдущих значений градиентов и квадратов градиентов функции потерь
Формула изменения параметров для AdamW: где: ηt — экспоненциальное взвешенное дифференциала функции потерь на шаге t; β2t — экспоненциальное взвешенное квадрата дифференциала функции потерь на шаге t; mt — параметры модели на шаге t; ∇Lt — дифференциал функции потерь; α — исходный learning rate; β1 — коэффициент сглаживания; β2 — коэффициент регуляризации; γt — коэффициенты учета предыдущих значений градиентов и квадратов градиентов функции потерь.
false
true
true
852
2026-02-23T10:45:35.872000Z
2026-02-23T10:45:35.872000Z
Lec.
Реализует механизм L2-регуляризации без затухания эффекта со временем
false
true
false
851
2026-02-23T10:45:34.078000Z
2026-02-23T10:45:34.078000Z
Lec.
Минимальная настройка гиперпараметров: AdamW обычно позволяет достичь высоких метрик качества при минимальной настройке, что упрощает процесс разработки модели
false
true
false
850
2026-02-23T10:45:32.290000Z
2026-02-23T16:49:31.045000Z
Lec.
Адаптивная скорость обучения: Индивидуальные настройки скорости обучения делают AdamW подходящим для решения задач с изменяющимися данными или наборами параметров
Адаптивность скорости обучения: Индивидуальные настройки скорости обучения делают AdamW подходящим для решения задач с изменяющимися данными или наборами параметров
false
true
true
849
2026-02-23T10:45:30.532000Z
2026-02-23T13:51:11.517000Z
Lec.
Демонстрирует увеличение в скорости сходимости по сравнению с традиционными методами (например, SGD) [26]
Демонстрирует увеличение скорости сходимости по сравнению с традиционными методами (например, SGD) [26]
false
true
true
848
2026-02-23T10:45:28.781000Z
2026-02-23T18:18:53.649000Z
Lec.
Скорость и эффективность: Использует исторические данные о градиентах для адаптивного обновления параметров
Скорость и эффективность: Использует исторические данные о градиентах для адаптивного обновления параметров.
false
true
true
847
2026-02-23T10:45:27.017000Z
2026-02-23T10:45:27.017000Z
Lec.
Указанный оптимизатор доказал свою эффективность при решении задач обработки естественного языка и был выбран по следующим ключевым причинам:
false
true
false
846
2026-02-23T10:45:25.341000Z
2026-02-23T10:45:25.341000Z
Lec.
В исследовании был применен алгоритм оптимизации AdamW [25] - модифицированная версия алгоритма Adam с улучшенной реализацией L2-регуляризации
false
true
false
845
2026-02-23T10:45:23.581000Z
2026-02-23T10:45:23.581000Z
Lec.
Для батча из N объектов:
true
true
false
844
2026-02-23T10:45:13.812000Z
2026-02-23T10:45:13.812000Z
Lec.
Функция потерь для одного объекта:
false
true
false
843
2026-02-23T10:45:12.378000Z
2026-02-23T10:45:12.378000Z
Lec.
Ниже представлено математическое описание метода:. — бинарная метка класса для объекта ;. — предсказанный логит (сырой выход) для класса объекта ;. ​ — вес класса (для учета дисбаланса классов);. - сигмоидная функция: ​
false
false
false
842
2026-02-23T10:45:10.530000Z
2026-02-23T17:47:33.695000Z
Lec.
Точная калибровка вероятностей принадлежности к классам;
Точная калибровка вероятностей принадлежности к классам;
false
true
true
841
2026-02-23T10:45:08.567000Z
2026-02-23T10:45:08.567000Z
Lec.
Возможность одновременного отнесения объекта к нескольким классам;
false
false
false
840
2026-02-23T10:45:07.026000Z
2026-02-23T13:46:18.416000Z
Lec.
Устойчивость к дисбалансу классов в обучающей выборке;
Устойчивость к дисбалансу классов в обучающей выборке.
false
true
true
839
2026-02-23T10:45:05.535000Z
2026-02-23T10:45:05.535000Z
Lec.
Преимущества выбранного подхода:
false
true
false
838
2026-02-23T10:45:03.692000Z
2026-02-23T10:45:03.692000Z
Lec.
Вычисляется бинарная кросс-энтропия отдельно для каждого класса
false
true
false
837
2026-02-23T10:45:01.893000Z
2026-02-23T16:23:30.528000Z
Lec.
Применяется сигмоидная функция активации для каждого выхода классификатора;
Применяется сигмоидная функция активации для каждого выхода классификатора.
false
true
true
836
2026-02-23T10:45:00.362000Z
2026-02-23T10:45:00.362000Z
Lec.
Используется схема независимой бинарной классификации для каждого класса;
false
true
false
835
2026-02-23T10:44:58.047000Z
2026-02-23T10:44:58.047000Z
Lec.
Особенности реализации:
false
true
false
834
2026-02-23T10:44:55.952000Z
2026-02-23T10:44:55.952000Z
Lec.
Для минимизации негативного влияния дисбаланса на процесс обучения была применена функция потерь BCEWithLogitsLoss (Binary Cross-Entropy with Logits Loss) [24]
false
true
false
833
2026-02-23T10:44:54.194000Z
2026-02-23T10:44:54.194000Z
Lec.
В ходе исследования была выявлена существенная проблема дисбаланса классов в тренировочных данных
false
true
false
832
2026-02-23T10:44:52.262000Z
2026-02-23T10:44:52.262000Z
Lec.
Улучшения сходимости алгоритма оптимизации
false
true
false
831
2026-02-23T10:44:50.743000Z
2026-02-23T10:44:50.743000Z
Lec.
Стабилизации изменения функции потерь;
false
true
false
830
2026-02-23T10:44:49.211000Z
2026-02-23T10:44:49.211000Z
Lec.
Такой подход позволил добиться:
false
true
false
829
2026-02-23T10:44:47.637000Z
2026-02-23T10:44:47.637000Z
Lec.
После завершения прогрева использовался стандартный режим обучения
false
true
false
828
2026-02-23T10:44:45.925000Z
2026-02-23T10:44:45.925000Z
Lec.
На данном этапе скорость обучения линейно возрастала от 0 до целевого значения
false
true
false
827
2026-02-23T10:44:44.297000Z
2026-02-23T17:42:40.364000Z
Lec.
Период прогрева установлен для первых 10 шагов обучения
Период прогрева установлен для первых десяти шагов обучения
false
true
true
826
2026-02-23T10:44:42.755000Z
2026-02-23T13:41:38.330000Z
Lec.
В рамках исследования метод Warmup был применен при обучении моделей BERT:
В рамках исследования метод Warmup был применен при обучении моделей BERT.
false
true
true
825
2026-02-23T10:44:41.043000Z
2026-02-23T17:54:30.401000Z
Lec.
Для решения данных проблем был применен метод прогрева скорости обучения (Warmup Steps), теоретическое обоснование которого представлено в работе [23]
Для решения данных проблем был применен метод прогрева скорости обучения (Warmup Steps), теоретическое обоснование которого представлено в работе [23]. Однако для полной информации о применении этого метода необходимо указать конкретные шаги или результаты, которые были достигнуты с его помощью.
false
true
true
824
2026-02-23T10:44:39.397000Z
2026-02-23T13:28:04.837000Z
Lec.
Проблемам сходимости алгоритма оптимизации
Проблемам сходства алгоритма оптимизации
false
true
true
823
2026-02-23T10:44:37.878000Z
2026-02-23T10:44:37.878000Z
Lec.
Резкие колебания параметров модели;
false
true
false
822
2026-02-23T10:44:36.391000Z
2026-02-23T10:44:36.391000Z
Lec.
Нестабильность градиентов;
false
true
false
821
2026-02-23T10:44:34.876000Z
2026-02-23T10:44:34.876000Z
Lec.
Есть вероятность, что данное сочетание вызовет следующие негативные эффекты:
false
true
false
820
2026-02-23T10:44:32.587000Z
2026-02-23T17:20:59.017000Z
Lec.
На этапе инициализации обучения модели существует ключевая проблема, связанная с комбинацией двух факторов: случайного распределения начальных весов и установки чрезмерно высокого значения learning rate
На этапе инициализации обучения модели существует ключевая проблема, связанная с комбинацией двух факторов: случайного распределения начальных весов и установки чрезмерно высокого значения learning_rate.
false
true
true
819
2026-02-23T10:44:30.927000Z
2026-02-23T10:44:30.927000Z
Lec.
Поскольку r мало (обычно 8—64), количество обучаемых параметров сокращается в сотни раз по сравнению с полной настройкой
false
true
false
818
2026-02-23T10:44:29.142000Z
2026-02-23T10:44:29.142000Z
Lec.
Эффективность по памяти и времени вычислений
false
true
false
817
2026-02-23T10:44:27.482000Z
2026-02-23T13:37:33.221000Z
Lec.
Обновленные веса выражаются так: ,. где — исходная матрица весов
Обновленные веса выражаются так: №,. где — исходная матрица весов.
false
true
true
816
2026-02-23T10:44:25.751000Z
2026-02-23T17:26:20.188000Z
Lec.
Для каждого обучаемого слоя вводятся две матрицы:. (низкоранговая проекция);. (восстановление размерности), где (ранк адаптации)
Для каждого обучаемого слоя вводятся две матрицы:. (низкорангальная проекция);. (восстановление размерности), где (ранг адаптации)
false
true
true
815
2026-02-23T10:44:23.976000Z
2026-02-23T10:44:23.976000Z
Lec.
Низкоранговые адаптационные матрицы
false
true
false
814
2026-02-23T10:44:22.415000Z
2026-02-23T13:45:22.838000Z
Lec.
Предобученная модель остается неизменной, что предотвращает катастрофическое забывание и сохраняет ее обобщающую способность
Предобученная модель остается неизменной, что предотвращает качественное забывание и сохраняет ее обобщающую способность
false
true
true
813
2026-02-23T10:44:20.662000Z
2026-02-23T10:44:20.662000Z
Lec.
Замороженные исходные веса
false
false
false
812
2026-02-23T10:44:19.161000Z
2026-02-23T17:54:08.301000Z
Lec.
Основные принципы метода LoRA:
Основные принципы метода LoRA:.
false
true
true
811
2026-02-23T10:44:17.641000Z
2026-02-23T10:44:17.641000Z
Lec.
В отличие от классического fine-tuning, который требует обновления всех весов модели, LoRA предлагает заморозить исходные параметры и внедрить дополнительные низкоранговые матрицы, что существенно сокращает вычислительные затраты и объем памяти
false
true
false
810
2026-02-23T10:44:15.868000Z
2026-02-23T16:44:15.905000Z
Lec.
Метод LoRA (Low-Rank Adaptation) основан на низкоранговой адаптации параметров
Метод LoRA (Low-Rank Adaptation) основан на низкоранговой адаптации параметров моделей
false
true
true
809
2026-02-23T10:44:14.138000Z
2026-02-23T13:50:29.937000Z
Lec.
Устойчивое снижение функции потерь
Устойчивое снижение потерь функций
false
true
true
808
2026-02-23T10:44:12.689000Z
2026-02-23T10:44:12.689000Z
Lec.
Сокращение количества обучаемых параметров на 99%;
false
true
false