id int64 18 21.1k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 16:54:39 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 16:54:39 | doc_name stringclasses 1 value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2 classes | is_sentence bool 2 classes | is_corrected bool 2 classes |
|---|---|---|---|---|---|---|---|---|
907 | 2026-02-23T10:47:14.247000Z | 2026-02-23T10:47:14.247000Z | Lec. | Для каждой модели BERT результатом классификации является численная метка рубрики ГРНТИ, к которой подбирается текстовое представление из словаря ГРНТИ | false | true | false | |
906 | 2026-02-23T10:47:12.703000Z | 2026-02-23T10:47:12.703000Z | Lec. | Иерархические классификаторы учитывают структуру взаимосвязей между классами, организованную в виде дерева (рис. 14) | false | true | false | |
905 | 2026-02-23T10:47:11.007000Z | 2026-02-23T10:47:11.007000Z | Lec. | Диаграмма работы плоского классификатора | false | false | false | |
904 | 2026-02-23T10:47:09.260000Z | 2026-02-23T17:20:48.820000Z | Lec. | Названия классов 1-го уровня, предсказания моделей для 1-го уровня ГРНТИ не учитываются, пому процесс обучения модели для предсказания 2-го уровня аналогичен процессу обучения для модели 1-го уровня ГРНТИ | Названия классов 1-го уровня не учитываются, поскольку предсказания моделей для 1-го уровня ГРНТИ аналогичны процессу обучения модели для предсказания 2-го уровня, который является аналогом процесса обучения модели 1-го уровня ГРНТИ. | false | true | true |
903 | 2026-02-23T10:47:07.630000Z | 2026-02-23T13:35:40.713000Z | Lec. | При использовании плоского классификатора все классы рассматриваются как независимые и равноправные, без учета возможных взаимосвязей между ними (рис. 13) | При использовании плоского классификатора все классы рассматриваются как независимые и равноправные, без учета возможных взаимосвязей между ними (см. рис. 13) | false | true | true |
902 | 2026-02-23T10:47:05.993000Z | 2026-02-23T10:47:05.993000Z | Lec. | Процесс подготовки данных для тренировки совпадает с процессом подготовки данных для плоского классификатора, но в начало текста каждой статьи добавляются названия рубрик 2-го, порядка, к которым она относится по мнению экспертов | false | true | false | |
901 | 2026-02-23T10:47:04.097000Z | 2026-02-23T13:50:10.916000Z | Lec. | Для плоского классификатора после удаления экземпляров классов выполняется обработка данных, совпадающая с обработкой данных для 1-го датасета при классификации по 1-му уровню ГРНТИ | Для плоского классификатора после удаления экземпляров классов выполняется обработка данных, совпадающая с обработкой данных для 1-го датасета при классификации по 1-му уровню ГРНТ | false | true | true |
900 | 2026-02-23T10:47:02.512000Z | 2026-02-23T10:47:02.512000Z | Lec. | Количество оставшихся классов 2-й уровень ГРНТИ | false | true | false | |
899 | 2026-02-23T10:47:00.991000Z | 2026-02-23T10:47:00.991000Z | Lec. | Кол-во удаляемых классов 2-й уровень ГРНТИ | false | false | false | |
898 | 2026-02-23T10:46:59.518000Z | 2026-02-23T16:53:21.055000Z | Lec. | Ниже представлены графики количества экземпляров для удаленных (рис. 11) и оставленных классов (рис. 12) | Ниже представлены графики количества экземпляров для удаленных (рис. 11) и оставленных классов (рис. 12). | false | true | true |
897 | 2026-02-23T10:46:57.873000Z | 2026-02-23T13:24:36.101000Z | Lec. | После удаления 207 классов ГРНТИ-1 в обучающей выборке осталось 279659 текстов, распределенных по 246-классам ГРНТИ-1 | После удаления 207 классов ГРНТИ-1 в обучающей выборке осталось 279659 текстов, распределенных по 246 классам ГРНТИ-1 | false | true | true |
896 | 2026-02-23T10:46:56.021000Z | 2026-02-23T10:46:56.021000Z | Lec. | Для решения задачи мультиклассификации для 2-го уровня ГРНТИ был составлен тренировочный датасет:. удалены экземпляры 207 классов ГРНТИ 2-ого уровня, которые имеют < 300 текстов;. удалены экземпляры датасета, текст для которых имеет < 10 символов | false | true | false | |
895 | 2026-02-23T10:46:54.444000Z | 2026-02-23T13:46:29.316000Z | Lec. | График зависимости f1 от threshold на тестовом датасете при обучении с методом LORA | График зависимости f1 от threshold на тестовом датасете при обучении методом LORA. | false | true | true |
894 | 2026-02-23T10:46:52.811000Z | 2026-02-23T18:10:07.236000Z | Lec. | График зависимости f1 от threshold на тестовом датасете при обучении только слоя для классификации | График зависимости f1 от threshold на тестовом датасете при обучении только слоя для классификации | false | true | true |
893 | 2026-02-23T10:46:50.682000Z | 2026-02-23T10:46:50.682000Z | Lec. | Графики для результатов тестирования при обучении только слоя классификации (рис. 9) и обучении с методом LoRA (рис. 10) представлены ниже | false | true | false | |
892 | 2026-02-23T10:46:48.645000Z | 2026-02-23T10:46:48.645000Z | Lec. | Обучение с методом LoRA. 0.45. 0,79. 0,802. 0,8 | false | false | false | |
891 | 2026-02-23T10:46:46.974000Z | 2026-02-23T10:46:46.974000Z | Lec. | Обучение слоя для классификации. 0,35. 0,667. 0,71. 0,705 | false | false | false | |
890 | 2026-02-23T10:46:45.226000Z | 2026-02-23T10:46:45.226000Z | Lec. | Таблица 3 — Усредненные метрики для обучения только слоя классификации и только с методом LoRA | false | false | false | |
889 | 2026-02-23T10:46:43.719000Z | 2026-02-23T10:46:43.719000Z | Lec. | Ниже представлена таблица с результатами для метрик (таб. 3) | false | true | false | |
888 | 2026-02-23T10:46:42.230000Z | 2026-02-23T10:46:42.230000Z | Lec. | При обучении использовались тренировочные и тестовые данные 1-го датасета, обучение происходило в течение 8 эпох | false | false | false | |
887 | 2026-02-23T10:46:40.190000Z | 2026-02-23T10:46:40.190000Z | Lec. | Для решения задачи классификации 1-го уровня ГРНТИ моделью BERT были предложены два способа: использование метода PEFT LoRA и обучение только слоя классификации | false | true | false | |
886 | 2026-02-23T10:46:38.561000Z | 2026-02-23T16:38:45.793000Z | Lec. | График зависимости f1 от threshold на тестовом датасете для классификации при добавлении расшифровок рядом с сокращениями | График зависимости f1 от threshold на тестовом датасете для классификации при добавлении расшифровок рядом с сокращениями. | false | true | true |
885 | 2026-02-23T10:46:36.833000Z | 2026-02-23T10:46:36.833000Z | Lec. | График зависимости f1 от threshold на тестовом датасете для классификации при замене сокращений на их расшифровки | false | true | false | |
884 | 2026-02-23T10:46:35.104000Z | 2026-02-23T17:08:12.555000Z | Lec. | График зависимости f1 от threshold на тестовом датасете для классификации без использования словаря сокращений | График зависимости f1 от threshold на тестовом датасете для классификации без использования словаря сокращений. | false | true | true |
883 | 2026-02-23T10:46:33.243000Z | 2026-02-23T13:33:29.655000Z | Lec. | Графики для результатов тестирования моделей, обученных на 1-м, 2-м, 3-м датасете, представлены ниже (рис. 6, 7, 8) | Графики результатов тестирования моделей, обученных на 1-м, 2-м и 3-м датасетах, представлены ниже (рис. 6, 7 и 8). | false | true | true |
882 | 2026-02-23T10:46:31.582000Z | 2026-02-23T10:46:31.582000Z | Lec. | Расшифровки рядом с сокращениями. 0.5. 0,82. 0,839. 0,838 | false | false | false | |
881 | 2026-02-23T10:46:29.761000Z | 2026-02-23T10:46:29.761000Z | Lec. | Замена сокращений расшифровками. 0.5. 0,822. 0,84. 0,838 | false | false | false | |
880 | 2026-02-23T10:46:28.052000Z | 2026-02-23T10:46:28.052000Z | Lec. | Без словаря сокращений. 0.45. 0,823. 0,84. 0,839 | false | false | false | |
879 | 2026-02-23T10:46:26.155000Z | 2026-02-23T10:46:26.155000Z | Lec. | Лучший threshold. f1_macro. f1_micro. f1_weighted | true | false | false | |
878 | 2026-02-23T10:46:24.001000Z | 2026-02-23T15:40:39.994000Z | Lec. | Использование словаря сокращений | Используя словарь сокращений. | false | true | true |
877 | 2026-02-23T10:46:22.108000Z | 2026-02-23T10:46:22.108000Z | Lec. | Таблица 2 — Усредненные метрики для разных вариантов работы со словарем сокращений | false | true | false | |
876 | 2026-02-23T10:46:20.219000Z | 2026-02-23T13:46:10.927000Z | Lec. | Таблица для сравнения усредненных метрик f1 для различных вариантов работы со словарем сокращений представлена ниже (таб. 2) | Таблица для сравнения усредненных метрик f1 различных вариантов работы со словарем сокращений представлена ниже (таб. 2). | false | true | true |
875 | 2026-02-23T10:46:18.653000Z | 2026-02-23T10:46:18.653000Z | Lec. | При обучении на 1-м, 2-м, 3-м датасете в течение 16 эпох были получены лучшие результаты по метрике f1-score | false | true | false | |
874 | 2026-02-23T10:46:17.021000Z | 2026-02-23T17:39:44.114000Z | Lec. | Для 3-го и 1-го датасета данные совпадают, но рядом со всеми сокращениями в текст добавлены их расшифровки | Для 3-го и 1-го датасета данные совпадают, но к каждому сокращению добавлены их расшифровки. | false | true | true |
873 | 2026-02-23T10:46:15.498000Z | 2026-02-23T10:46:15.498000Z | Lec. | Данные для 2-го и 1-го датасета совпадают, но все сокращения заменены на их расшифровки | true | true | false | |
872 | 2026-02-23T10:46:13.643000Z | 2026-02-23T13:47:01.281000Z | Lec. | Применение к текстам токенизатора “DeepPavlov/rubert-base-cased” c понижением регистра букв для получения следующей информации:. input_ids — массив чисел, каждое из которых соответствует одному токену;. attention_mask — массив нулей и единиц, который указывает модели, какие токены следует учитывать, а какие игнорировать;. token_type_ids — массив, используется в моделях, в которые подаются несколько последовательностей для их разделения | Применение к текстам токенизатора «DeepPavlov/rubert-base-cased» с понижением регистра букв для получения следующей информации: input_ids — массив чисел, каждое из которых соответствует одному токену. attention_mask — массив нулей и единиц, который указывает модели, какие токены следует учитывать, а какие игнорировать. token_type_ids — массив, используемый в моделях, в которые подаются несколько последовательностей для их разделения. | false | true | true |
871 | 2026-02-23T10:46:11.029000Z | 2026-02-23T13:41:55.283000Z | Lec. | Кодирование классов; | Кодировка классов; | false | true | true |
870 | 2026-02-23T10:46:09.284000Z | 2026-02-23T17:07:31.409000Z | Lec. | Разделение названий, текстов и ключевых слов специальными символами для каждой статьи (“SEP”); | Разделение названий, текстов и ключевых слов специальными символами для каждой статьи («SEP»); | false | true | true |
869 | 2026-02-23T10:46:07.675000Z | 2026-02-23T10:46:07.675000Z | Lec. | После удаления статей из датасета выполняются следующие действия: | false | true | false | |
868 | 2026-02-23T10:46:04.269000Z | 2026-02-23T10:46:04.269000Z | Lec. | Количество оставшихся текстов по рубрикам 1-го уровня ГРНТИ | false | true | false | |
867 | 2026-02-23T10:46:02.764000Z | 2026-02-23T10:46:02.764000Z | Lec. | Количество удаляемых текстов. 1-й уровень ГРНТИ | false | true | false | |
866 | 2026-02-23T10:46:01.272000Z | 2026-02-23T10:46:01.272000Z | Lec. | После удаления 11 классов ГРНТИ-1 в обучающей выборке осталось 290794 текстов, распределенных по 36 классам ГРНТИ-1 | false | true | false | |
865 | 2026-02-23T10:45:59.712000Z | 2026-02-23T13:40:05.379000Z | Lec. | Ниже представлены графики количества экземпляров для удаленных (рис. 4) и оставленных классов (рис. 5) | Ниже представлено два графика: количество экземпляров для удаленных (рис. 4) и оставленных классов (рис. 5) | false | true | true |
864 | 2026-02-23T10:45:58.065000Z | 2026-02-23T16:20:48.475000Z | Lec. | В тестовом датасете находится 166183 текстов, распределенных по классам ГРНТИ 1-го, 2-го и 3-го уровней | В тестовом датасете находится 166183 количества текстов, распределенных по классам ГРНТИ 1-го, 2-го и 3-го уровней. | false | true | true |
863 | 2026-02-23T10:45:56.293000Z | 2026-02-23T15:53:21.255000Z | Lec. | При составлении тестового датасета не удалялись статьи с рубриками ГРНТИ, которые отсутствуют в тренировочном датасете, что позволило корректно оценивать качество работы системы классификации | При составлении тестового датасета не удалялись статьи с рубриками ГРНТИ, которые отсутствуют в тренировочном наборе данных, что позволило корректно оценивать качество работы системы классификации | false | true | true |
862 | 2026-02-23T10:45:54.709000Z | 2026-02-23T10:45:54.709000Z | Lec. | Ниже описан процесс обработки данных для дальнейшего обучения:. 1) Для каждой статьи из тренировочного датасета кодируются рубрики ГРНТИ 1-ого уровня числами от 0 до M-1, где M— число уникальных рубрик 2-ого уровня в тренировочных данных, сохраняем словарь, где ключи: рубрики ГРНТИ 2-ого уровня, а значения: кодировки рубрик. 2) Для каждой статьи из тренировочного датасета соединяем в одну строку через «[SEP]» название, аннотацию, ключевые слова, затем текст кодируется (применяется кодировщик BERT). 3) Из датасета удалены 11 классов ГРНТИ 1-ого уровня с наименьшим количеством экземпляров (< 600 текстов в рубрике);. 4) Удалены экземпляры датасета, текст для которых имеет < 10 символов | false | false | false | |
861 | 2026-02-23T10:45:52.651000Z | 2026-02-23T10:45:52.651000Z | Lec. | Для составления 1-го тренировочного датасета не использовался словарь сокращений | false | true | false | |
860 | 2026-02-23T10:45:50.804000Z | 2026-02-23T13:33:55.586000Z | Lec. | Для проверки данного гипотезу было составлено 3 обучающих и тестовых датасета | Для проверки данной гипотезы было составлено 3 обучающих и тестовых датасета | false | true | true |
859 | 2026-02-23T10:45:48.969000Z | 2026-02-23T13:40:15.572000Z | Lec. | Было сделано предположение, что использование словаря сокращений ВИНИТИ РАН при подготовке текстов для классификации оказывает позитивное влияние на качество предсказаний | Было сделано предположение, что использование словаря сокращений ВИНИТИ РАН при подготовке текстов для классификации оказывает положительное влияние на качество предсказаний. | false | true | true |
858 | 2026-02-23T10:45:47.158000Z | 2026-02-23T15:52:31.147000Z | Lec. | В текстах аннотаций научных статей встречаются аббревиатуры и сокращения | В текстах аннотаций научных статей встречаются аббревиатуры и сокращения | false | true | true |
857 | 2026-02-23T10:45:45.367000Z | 2026-02-23T10:45:45.367000Z | Lec. | Для отслеживания процесса обучения сохранялась модель и осуществлялся подсчет метрик в конце эпох | false | true | false | |
856 | 2026-02-23T10:45:43.775000Z | 2026-02-23T16:44:48.264000Z | Lec. | Для одного экземпляра датасета текст для статьи разделялся на 512 токенов | Для одного экземпляра датасета текст для статьи разделялся на 512 токенов. | false | true | true |
855 | 2026-02-23T10:45:41.842000Z | 2026-02-23T13:25:45.124000Z | Lec. | В результате экспериментов данное значение оказалось оптимальным для обучения, поскольку при размере батча 16 обучение останавливалось при обучении с использованием имеющейся видеокарты | В результате экспериментов данное значение оказалось оптимальным для обучения, поскольку при размере батча 16 обучение останавливалось при использовании имеющейся видеокарты | false | true | true |
854 | 2026-02-23T10:45:40.196000Z | 2026-02-23T17:59:15.721000Z | Lec. | При обучении моделей данные предавались батчами размера 8, т.е. за одну итерацию обучения в модель передавались данные восьми статей | При обучении моделей данные предавались батчами размера 8, то есть за одну итерацию обучения в модель передавались данные восьми статей. | false | true | true |
853 | 2026-02-23T10:45:38.008000Z | 2026-02-23T18:05:54.151000Z | Lec. | Формула изменения параметров для AdamW:. где:. — экспоненциальное взвешенное дифференциала функции потерь на шаге ;. — экспоненциальное взвешенное квадрата дифференциала функции потерь на шаге ;. — параметры модели на шаге ;. — дифференциал функции потерь;. — исходный learning rate;. — коэффициент сглаживания;. — коэффициент регуляризации;. — коэффициенты учета предыдущих значений градиентов и квадратов градиентов функции потерь | Формула изменения параметров для AdamW:
где:
ηt — экспоненциальное взвешенное дифференциала функции потерь на шаге t;
β2t — экспоненциальное взвешенное квадрата дифференциала функции потерь на шаге t;
mt — параметры модели на шаге t;
∇Lt — дифференциал функции потерь;
α — исходный learning rate;
β1 — коэффициент сглаживания;
β2 — коэффициент регуляризации;
γt — коэффициенты учета предыдущих значений градиентов и квадратов градиентов функции потерь. | false | true | true |
852 | 2026-02-23T10:45:35.872000Z | 2026-02-23T10:45:35.872000Z | Lec. | Реализует механизм L2-регуляризации без затухания эффекта со временем | false | true | false | |
851 | 2026-02-23T10:45:34.078000Z | 2026-02-23T10:45:34.078000Z | Lec. | Минимальная настройка гиперпараметров: AdamW обычно позволяет достичь высоких метрик качества при минимальной настройке, что упрощает процесс разработки модели | false | true | false | |
850 | 2026-02-23T10:45:32.290000Z | 2026-02-23T16:49:31.045000Z | Lec. | Адаптивная скорость обучения: Индивидуальные настройки скорости обучения делают AdamW подходящим для решения задач с изменяющимися данными или наборами параметров | Адаптивность скорости обучения: Индивидуальные настройки скорости обучения делают AdamW подходящим для решения задач с изменяющимися данными или наборами параметров | false | true | true |
849 | 2026-02-23T10:45:30.532000Z | 2026-02-23T13:51:11.517000Z | Lec. | Демонстрирует увеличение в скорости сходимости по сравнению с традиционными методами (например, SGD) [26] | Демонстрирует увеличение скорости сходимости по сравнению с традиционными методами (например, SGD) [26] | false | true | true |
848 | 2026-02-23T10:45:28.781000Z | 2026-02-23T18:18:53.649000Z | Lec. | Скорость и эффективность: Использует исторические данные о градиентах для адаптивного обновления параметров | Скорость и эффективность: Использует исторические данные о градиентах для адаптивного обновления параметров. | false | true | true |
847 | 2026-02-23T10:45:27.017000Z | 2026-02-23T10:45:27.017000Z | Lec. | Указанный оптимизатор доказал свою эффективность при решении задач обработки естественного языка и был выбран по следующим ключевым причинам: | false | true | false | |
846 | 2026-02-23T10:45:25.341000Z | 2026-02-23T10:45:25.341000Z | Lec. | В исследовании был применен алгоритм оптимизации AdamW [25] - модифицированная версия алгоритма Adam с улучшенной реализацией L2-регуляризации | false | true | false | |
845 | 2026-02-23T10:45:23.581000Z | 2026-02-23T10:45:23.581000Z | Lec. | Для батча из N объектов: | true | true | false | |
844 | 2026-02-23T10:45:13.812000Z | 2026-02-23T10:45:13.812000Z | Lec. | Функция потерь для одного объекта: | false | true | false | |
843 | 2026-02-23T10:45:12.378000Z | 2026-02-23T10:45:12.378000Z | Lec. | Ниже представлено математическое описание метода:. — бинарная метка класса для объекта ;. — предсказанный логит (сырой выход) для класса объекта ;. — вес класса (для учета дисбаланса классов);. - сигмоидная функция: | false | false | false | |
842 | 2026-02-23T10:45:10.530000Z | 2026-02-23T17:47:33.695000Z | Lec. | Точная калибровка вероятностей принадлежности к классам; | Точная калибровка вероятностей принадлежности к классам; | false | true | true |
841 | 2026-02-23T10:45:08.567000Z | 2026-02-23T10:45:08.567000Z | Lec. | Возможность одновременного отнесения объекта к нескольким классам; | false | false | false | |
840 | 2026-02-23T10:45:07.026000Z | 2026-02-23T13:46:18.416000Z | Lec. | Устойчивость к дисбалансу классов в обучающей выборке; | Устойчивость к дисбалансу классов в обучающей выборке. | false | true | true |
839 | 2026-02-23T10:45:05.535000Z | 2026-02-23T10:45:05.535000Z | Lec. | Преимущества выбранного подхода: | false | true | false | |
838 | 2026-02-23T10:45:03.692000Z | 2026-02-23T10:45:03.692000Z | Lec. | Вычисляется бинарная кросс-энтропия отдельно для каждого класса | false | true | false | |
837 | 2026-02-23T10:45:01.893000Z | 2026-02-23T16:23:30.528000Z | Lec. | Применяется сигмоидная функция активации для каждого выхода классификатора; | Применяется сигмоидная функция активации для каждого выхода классификатора. | false | true | true |
836 | 2026-02-23T10:45:00.362000Z | 2026-02-23T10:45:00.362000Z | Lec. | Используется схема независимой бинарной классификации для каждого класса; | false | true | false | |
835 | 2026-02-23T10:44:58.047000Z | 2026-02-23T10:44:58.047000Z | Lec. | Особенности реализации: | false | true | false | |
834 | 2026-02-23T10:44:55.952000Z | 2026-02-23T10:44:55.952000Z | Lec. | Для минимизации негативного влияния дисбаланса на процесс обучения была применена функция потерь BCEWithLogitsLoss (Binary Cross-Entropy with Logits Loss) [24] | false | true | false | |
833 | 2026-02-23T10:44:54.194000Z | 2026-02-23T10:44:54.194000Z | Lec. | В ходе исследования была выявлена существенная проблема дисбаланса классов в тренировочных данных | false | true | false | |
832 | 2026-02-23T10:44:52.262000Z | 2026-02-23T10:44:52.262000Z | Lec. | Улучшения сходимости алгоритма оптимизации | false | true | false | |
831 | 2026-02-23T10:44:50.743000Z | 2026-02-23T10:44:50.743000Z | Lec. | Стабилизации изменения функции потерь; | false | true | false | |
830 | 2026-02-23T10:44:49.211000Z | 2026-02-23T10:44:49.211000Z | Lec. | Такой подход позволил добиться: | false | true | false | |
829 | 2026-02-23T10:44:47.637000Z | 2026-02-23T10:44:47.637000Z | Lec. | После завершения прогрева использовался стандартный режим обучения | false | true | false | |
828 | 2026-02-23T10:44:45.925000Z | 2026-02-23T10:44:45.925000Z | Lec. | На данном этапе скорость обучения линейно возрастала от 0 до целевого значения | false | true | false | |
827 | 2026-02-23T10:44:44.297000Z | 2026-02-23T17:42:40.364000Z | Lec. | Период прогрева установлен для первых 10 шагов обучения | Период прогрева установлен для первых десяти шагов обучения | false | true | true |
826 | 2026-02-23T10:44:42.755000Z | 2026-02-23T13:41:38.330000Z | Lec. | В рамках исследования метод Warmup был применен при обучении моделей BERT: | В рамках исследования метод Warmup был применен при обучении моделей BERT. | false | true | true |
825 | 2026-02-23T10:44:41.043000Z | 2026-02-23T17:54:30.401000Z | Lec. | Для решения данных проблем был применен метод прогрева скорости обучения (Warmup Steps), теоретическое обоснование которого представлено в работе [23] | Для решения данных проблем был применен метод прогрева скорости обучения (Warmup Steps), теоретическое обоснование которого представлено в работе [23]. Однако для полной информации о применении этого метода необходимо указать конкретные шаги или результаты, которые были достигнуты с его помощью. | false | true | true |
824 | 2026-02-23T10:44:39.397000Z | 2026-02-23T13:28:04.837000Z | Lec. | Проблемам сходимости алгоритма оптимизации | Проблемам сходства алгоритма оптимизации | false | true | true |
823 | 2026-02-23T10:44:37.878000Z | 2026-02-23T10:44:37.878000Z | Lec. | Резкие колебания параметров модели; | false | true | false | |
822 | 2026-02-23T10:44:36.391000Z | 2026-02-23T10:44:36.391000Z | Lec. | Нестабильность градиентов; | false | true | false | |
821 | 2026-02-23T10:44:34.876000Z | 2026-02-23T10:44:34.876000Z | Lec. | Есть вероятность, что данное сочетание вызовет следующие негативные эффекты: | false | true | false | |
820 | 2026-02-23T10:44:32.587000Z | 2026-02-23T17:20:59.017000Z | Lec. | На этапе инициализации обучения модели существует ключевая проблема, связанная с комбинацией двух факторов: случайного распределения начальных весов и установки чрезмерно высокого значения learning rate | На этапе инициализации обучения модели существует ключевая проблема, связанная с комбинацией двух факторов: случайного распределения начальных весов и установки чрезмерно высокого значения learning_rate. | false | true | true |
819 | 2026-02-23T10:44:30.927000Z | 2026-02-23T10:44:30.927000Z | Lec. | Поскольку r мало (обычно 8—64), количество обучаемых параметров сокращается в сотни раз по сравнению с полной настройкой | false | true | false | |
818 | 2026-02-23T10:44:29.142000Z | 2026-02-23T10:44:29.142000Z | Lec. | Эффективность по памяти и времени вычислений | false | true | false | |
817 | 2026-02-23T10:44:27.482000Z | 2026-02-23T13:37:33.221000Z | Lec. | Обновленные веса выражаются так: ,. где — исходная матрица весов | Обновленные веса выражаются так: №,. где — исходная матрица весов. | false | true | true |
816 | 2026-02-23T10:44:25.751000Z | 2026-02-23T17:26:20.188000Z | Lec. | Для каждого обучаемого слоя вводятся две матрицы:. (низкоранговая проекция);. (восстановление размерности), где (ранк адаптации) | Для каждого обучаемого слоя вводятся две матрицы:. (низкорангальная проекция);. (восстановление размерности), где (ранг адаптации) | false | true | true |
815 | 2026-02-23T10:44:23.976000Z | 2026-02-23T10:44:23.976000Z | Lec. | Низкоранговые адаптационные матрицы | false | true | false | |
814 | 2026-02-23T10:44:22.415000Z | 2026-02-23T13:45:22.838000Z | Lec. | Предобученная модель остается неизменной, что предотвращает катастрофическое забывание и сохраняет ее обобщающую способность | Предобученная модель остается неизменной, что предотвращает качественное забывание и сохраняет ее обобщающую способность | false | true | true |
813 | 2026-02-23T10:44:20.662000Z | 2026-02-23T10:44:20.662000Z | Lec. | Замороженные исходные веса | false | false | false | |
812 | 2026-02-23T10:44:19.161000Z | 2026-02-23T17:54:08.301000Z | Lec. | Основные принципы метода LoRA: | Основные принципы метода LoRA:. | false | true | true |
811 | 2026-02-23T10:44:17.641000Z | 2026-02-23T10:44:17.641000Z | Lec. | В отличие от классического fine-tuning, который требует обновления всех весов модели, LoRA предлагает заморозить исходные параметры и внедрить дополнительные низкоранговые матрицы, что существенно сокращает вычислительные затраты и объем памяти | false | true | false | |
810 | 2026-02-23T10:44:15.868000Z | 2026-02-23T16:44:15.905000Z | Lec. | Метод LoRA (Low-Rank Adaptation) основан на низкоранговой адаптации параметров | Метод LoRA (Low-Rank Adaptation) основан на низкоранговой адаптации параметров моделей | false | true | true |
809 | 2026-02-23T10:44:14.138000Z | 2026-02-23T13:50:29.937000Z | Lec. | Устойчивое снижение функции потерь | Устойчивое снижение потерь функций | false | true | true |
808 | 2026-02-23T10:44:12.689000Z | 2026-02-23T10:44:12.689000Z | Lec. | Сокращение количества обучаемых параметров на 99%; | false | true | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.