id int64 18 18.8k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 14:51:09 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 14:51:09 | doc_name stringclasses 1
value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2
classes | is_sentence bool 2
classes | is_corrected bool 2
classes |
|---|---|---|---|---|---|---|---|---|
857 | 2026-02-23T10:45:45.367000Z | 2026-02-23T10:45:45.367000Z | Lec. | Для отслеживания процесса обучения сохранялась модель и осуществлялся подсчет метрик в конце эпох | false | true | false | |
856 | 2026-02-23T10:45:43.775000Z | 2026-02-23T16:44:48.264000Z | Lec. | Для одного экземпляра датасета текст для статьи разделялся на 512 токенов | Для одного экземпляра датасета текст для статьи разделялся на 512 токенов. | false | true | true |
855 | 2026-02-23T10:45:41.842000Z | 2026-02-23T13:25:45.124000Z | Lec. | В результате экспериментов данное значение оказалось оптимальным для обучения, поскольку при размере батча 16 обучение останавливалось при обучении с использованием имеющейся видеокарты | В результате экспериментов данное значение оказалось оптимальным для обучения, поскольку при размере батча 16 обучение останавливалось при использовании имеющейся видеокарты | false | true | true |
854 | 2026-02-23T10:45:40.196000Z | 2026-02-23T17:59:15.721000Z | Lec. | При обучении моделей данные предавались батчами размера 8, т.е. за одну итерацию обучения в модель передавались данные восьми статей | При обучении моделей данные предавались батчами размера 8, то есть за одну итерацию обучения в модель передавались данные восьми статей. | false | true | true |
853 | 2026-02-23T10:45:38.008000Z | 2026-02-23T18:05:54.151000Z | Lec. | Формула изменения параметров для AdamW:. где:. — экспоненциальное взвешенное дифференциала функции потерь на шаге ;. — экспоненциальное взвешенное квадрата дифференциала функции потерь на шаге ;. — параметры модели на шаге ;. — дифференциал функции потерь;. — исходный learning rate;. — коэффициент сглаживания;. — ко... | Формула изменения параметров для AdamW:
где:
ηt — экспоненциальное взвешенное дифференциала функции потерь на шаге t;
β2t — экспоненциальное взвешенное квадрата дифференциала функции потерь на шаге t;
mt — параметры модели на шаге t;
∇Lt — дифференциал функции потерь;
α — исходный learning rate;
β1 — коэффицие... | false | true | true |
852 | 2026-02-23T10:45:35.872000Z | 2026-02-23T10:45:35.872000Z | Lec. | Реализует механизм L2-регуляризации без затухания эффекта со временем | false | true | false | |
851 | 2026-02-23T10:45:34.078000Z | 2026-02-23T10:45:34.078000Z | Lec. | Минимальная настройка гиперпараметров: AdamW обычно позволяет достичь высоких метрик качества при минимальной настройке, что упрощает процесс разработки модели | false | true | false | |
850 | 2026-02-23T10:45:32.290000Z | 2026-02-23T16:49:31.045000Z | Lec. | Адаптивная скорость обучения: Индивидуальные настройки скорости обучения делают AdamW подходящим для решения задач с изменяющимися данными или наборами параметров | Адаптивность скорости обучения: Индивидуальные настройки скорости обучения делают AdamW подходящим для решения задач с изменяющимися данными или наборами параметров | false | true | true |
849 | 2026-02-23T10:45:30.532000Z | 2026-02-23T13:51:11.517000Z | Lec. | Демонстрирует увеличение в скорости сходимости по сравнению с традиционными методами (например, SGD) [26] | Демонстрирует увеличение скорости сходимости по сравнению с традиционными методами (например, SGD) [26] | false | true | true |
848 | 2026-02-23T10:45:28.781000Z | 2026-02-23T18:18:53.649000Z | Lec. | Скорость и эффективность: Использует исторические данные о градиентах для адаптивного обновления параметров | Скорость и эффективность: Использует исторические данные о градиентах для адаптивного обновления параметров. | false | true | true |
847 | 2026-02-23T10:45:27.017000Z | 2026-02-23T10:45:27.017000Z | Lec. | Указанный оптимизатор доказал свою эффективность при решении задач обработки естественного языка и был выбран по следующим ключевым причинам: | false | true | false | |
846 | 2026-02-23T10:45:25.341000Z | 2026-02-23T10:45:25.341000Z | Lec. | В исследовании был применен алгоритм оптимизации AdamW [25] - модифицированная версия алгоритма Adam с улучшенной реализацией L2-регуляризации | false | true | false | |
845 | 2026-02-23T10:45:23.581000Z | 2026-02-23T10:45:23.581000Z | Lec. | Для батча из N объектов: | true | true | false | |
844 | 2026-02-23T10:45:13.812000Z | 2026-02-23T10:45:13.812000Z | Lec. | Функция потерь для одного объекта: | false | true | false | |
843 | 2026-02-23T10:45:12.378000Z | 2026-02-23T10:45:12.378000Z | Lec. | Ниже представлено математическое описание метода:. — бинарная метка класса для объекта ;. — предсказанный логит (сырой выход) для класса объекта ;. — вес класса (для учета дисбаланса классов);. - сигмоидная функция: | false | false | false | |
842 | 2026-02-23T10:45:10.530000Z | 2026-02-23T17:47:33.695000Z | Lec. | Точная калибровка вероятностей принадлежности к классам; | Точная калибровка вероятностей принадлежности к классам; | false | true | true |
841 | 2026-02-23T10:45:08.567000Z | 2026-02-23T10:45:08.567000Z | Lec. | Возможность одновременного отнесения объекта к нескольким классам; | false | false | false | |
840 | 2026-02-23T10:45:07.026000Z | 2026-02-23T13:46:18.416000Z | Lec. | Устойчивость к дисбалансу классов в обучающей выборке; | Устойчивость к дисбалансу классов в обучающей выборке. | false | true | true |
839 | 2026-02-23T10:45:05.535000Z | 2026-02-23T10:45:05.535000Z | Lec. | Преимущества выбранного подхода: | false | true | false | |
838 | 2026-02-23T10:45:03.692000Z | 2026-02-23T10:45:03.692000Z | Lec. | Вычисляется бинарная кросс-энтропия отдельно для каждого класса | false | true | false | |
837 | 2026-02-23T10:45:01.893000Z | 2026-02-23T16:23:30.528000Z | Lec. | Применяется сигмоидная функция активации для каждого выхода классификатора; | Применяется сигмоидная функция активации для каждого выхода классификатора. | false | true | true |
836 | 2026-02-23T10:45:00.362000Z | 2026-02-23T10:45:00.362000Z | Lec. | Используется схема независимой бинарной классификации для каждого класса; | false | true | false | |
835 | 2026-02-23T10:44:58.047000Z | 2026-02-23T10:44:58.047000Z | Lec. | Особенности реализации: | false | true | false | |
834 | 2026-02-23T10:44:55.952000Z | 2026-02-23T10:44:55.952000Z | Lec. | Для минимизации негативного влияния дисбаланса на процесс обучения была применена функция потерь BCEWithLogitsLoss (Binary Cross-Entropy with Logits Loss) [24] | false | true | false | |
833 | 2026-02-23T10:44:54.194000Z | 2026-02-23T10:44:54.194000Z | Lec. | В ходе исследования была выявлена существенная проблема дисбаланса классов в тренировочных данных | false | true | false | |
832 | 2026-02-23T10:44:52.262000Z | 2026-02-23T10:44:52.262000Z | Lec. | Улучшения сходимости алгоритма оптимизации | false | true | false | |
831 | 2026-02-23T10:44:50.743000Z | 2026-02-23T10:44:50.743000Z | Lec. | Стабилизации изменения функции потерь; | false | true | false | |
830 | 2026-02-23T10:44:49.211000Z | 2026-02-23T10:44:49.211000Z | Lec. | Такой подход позволил добиться: | false | true | false | |
829 | 2026-02-23T10:44:47.637000Z | 2026-02-23T10:44:47.637000Z | Lec. | После завершения прогрева использовался стандартный режим обучения | false | true | false | |
828 | 2026-02-23T10:44:45.925000Z | 2026-02-23T10:44:45.925000Z | Lec. | На данном этапе скорость обучения линейно возрастала от 0 до целевого значения | false | true | false | |
827 | 2026-02-23T10:44:44.297000Z | 2026-02-23T17:42:40.364000Z | Lec. | Период прогрева установлен для первых 10 шагов обучения | Период прогрева установлен для первых десяти шагов обучения | false | true | true |
826 | 2026-02-23T10:44:42.755000Z | 2026-02-23T13:41:38.330000Z | Lec. | В рамках исследования метод Warmup был применен при обучении моделей BERT: | В рамках исследования метод Warmup был применен при обучении моделей BERT. | false | true | true |
825 | 2026-02-23T10:44:41.043000Z | 2026-02-23T17:54:30.401000Z | Lec. | Для решения данных проблем был применен метод прогрева скорости обучения (Warmup Steps), теоретическое обоснование которого представлено в работе [23] | Для решения данных проблем был применен метод прогрева скорости обучения (Warmup Steps), теоретическое обоснование которого представлено в работе [23]. Однако для полной информации о применении этого метода необходимо указать конкретные шаги или результаты, которые были достигнуты с его помощью. | false | true | true |
824 | 2026-02-23T10:44:39.397000Z | 2026-02-23T13:28:04.837000Z | Lec. | Проблемам сходимости алгоритма оптимизации | Проблемам сходства алгоритма оптимизации | false | true | true |
823 | 2026-02-23T10:44:37.878000Z | 2026-02-23T10:44:37.878000Z | Lec. | Резкие колебания параметров модели; | false | true | false | |
822 | 2026-02-23T10:44:36.391000Z | 2026-02-23T10:44:36.391000Z | Lec. | Нестабильность градиентов; | false | true | false | |
821 | 2026-02-23T10:44:34.876000Z | 2026-02-23T10:44:34.876000Z | Lec. | Есть вероятность, что данное сочетание вызовет следующие негативные эффекты: | false | true | false | |
820 | 2026-02-23T10:44:32.587000Z | 2026-02-23T17:20:59.017000Z | Lec. | На этапе инициализации обучения модели существует ключевая проблема, связанная с комбинацией двух факторов: случайного распределения начальных весов и установки чрезмерно высокого значения learning rate | На этапе инициализации обучения модели существует ключевая проблема, связанная с комбинацией двух факторов: случайного распределения начальных весов и установки чрезмерно высокого значения learning_rate. | false | true | true |
819 | 2026-02-23T10:44:30.927000Z | 2026-02-23T10:44:30.927000Z | Lec. | Поскольку r мало (обычно 8—64), количество обучаемых параметров сокращается в сотни раз по сравнению с полной настройкой | false | true | false | |
818 | 2026-02-23T10:44:29.142000Z | 2026-02-23T10:44:29.142000Z | Lec. | Эффективность по памяти и времени вычислений | false | true | false | |
817 | 2026-02-23T10:44:27.482000Z | 2026-02-23T13:37:33.221000Z | Lec. | Обновленные веса выражаются так: ,. где — исходная матрица весов | Обновленные веса выражаются так: №,. где — исходная матрица весов. | false | true | true |
816 | 2026-02-23T10:44:25.751000Z | 2026-02-23T17:26:20.188000Z | Lec. | Для каждого обучаемого слоя вводятся две матрицы:. (низкоранговая проекция);. (восстановление размерности), где (ранк адаптации) | Для каждого обучаемого слоя вводятся две матрицы:. (низкорангальная проекция);. (восстановление размерности), где (ранг адаптации) | false | true | true |
815 | 2026-02-23T10:44:23.976000Z | 2026-02-23T10:44:23.976000Z | Lec. | Низкоранговые адаптационные матрицы | false | true | false | |
814 | 2026-02-23T10:44:22.415000Z | 2026-02-23T13:45:22.838000Z | Lec. | Предобученная модель остается неизменной, что предотвращает катастрофическое забывание и сохраняет ее обобщающую способность | Предобученная модель остается неизменной, что предотвращает качественное забывание и сохраняет ее обобщающую способность | false | true | true |
813 | 2026-02-23T10:44:20.662000Z | 2026-02-23T10:44:20.662000Z | Lec. | Замороженные исходные веса | false | false | false | |
812 | 2026-02-23T10:44:19.161000Z | 2026-02-23T17:54:08.301000Z | Lec. | Основные принципы метода LoRA: | Основные принципы метода LoRA:. | false | true | true |
811 | 2026-02-23T10:44:17.641000Z | 2026-02-23T10:44:17.641000Z | Lec. | В отличие от классического fine-tuning, который требует обновления всех весов модели, LoRA предлагает заморозить исходные параметры и внедрить дополнительные низкоранговые матрицы, что существенно сокращает вычислительные затраты и объем памяти | false | true | false | |
810 | 2026-02-23T10:44:15.868000Z | 2026-02-23T16:44:15.905000Z | Lec. | Метод LoRA (Low-Rank Adaptation) основан на низкоранговой адаптации параметров | Метод LoRA (Low-Rank Adaptation) основан на низкоранговой адаптации параметров моделей | false | true | true |
809 | 2026-02-23T10:44:14.138000Z | 2026-02-23T13:50:29.937000Z | Lec. | Устойчивое снижение функции потерь | Устойчивое снижение потерь функций | false | true | true |
808 | 2026-02-23T10:44:12.689000Z | 2026-02-23T10:44:12.689000Z | Lec. | Сокращение количества обучаемых параметров на 99%; | false | true | false | |
807 | 2026-02-23T10:44:11.165000Z | 2026-02-23T10:44:11.165000Z | Lec. | Экспериментальные результаты продемонстрировали, что при ранге адаптации указанный метод обеспечивает: | false | true | false | |
806 | 2026-02-23T10:44:09.358000Z | 2026-02-23T16:57:04.240000Z | Lec. | В ходе исследования был применен метод низкоранговой адаптации LoRA (Low-Rank Adaptation of Large Language Models) [22], позволяющий существенно повысить эффективность процесса обучения при работе с крупными языковыми моделями | В ходе исследования был применен метод низкоранговой адаптации LoRA (Low-Rank Adaptation of Large Language Models) [22], позволяющий существенно повысить эффективность процесса обучения при работе с крупными языковыми моделями | false | true | true |
805 | 2026-02-23T10:44:07.594000Z | 2026-02-23T10:44:07.594000Z | Lec. | Распределение кодов ГРНТИ первого уровня | false | true | false | |
804 | 2026-02-23T10:44:06.138000Z | 2026-02-23T10:44:06.138000Z | Lec. | Несбалансированное распределение данных способствует систематической недооценке моделями редко встречающихся классов, снижая общую эффективность классификации [21] | false | true | false | |
803 | 2026-02-23T10:44:04.501000Z | 2026-02-23T10:44:04.501000Z | Lec. | Аналогичная ситуация характерна для второго и третьего уровней классификации | false | true | false | |
802 | 2026-02-23T10:44:02.655000Z | 2026-02-23T10:44:02.655000Z | Lec. | В результате анализ распределения данных для первого уровня ГРНТИ была выявлена из несбалансированность (рис. 3) | false | true | false | |
801 | 2026-02-23T10:44:00.735000Z | 2026-02-23T16:44:33.007000Z | Lec. | Для обучения модели был использован русскоязычный датасет, содержащий тексты аннотаций, названий статей и кодов ГРНТИ классифицированных научных статей различных тематик | Для обучения модели был использован русскоязычный датасет, содержащий тексты аннотаций, наименования статей и коды ГРНТИ классифицированных по ГРНТИ научных статей различных тематик. | false | true | true |
800 | 2026-02-23T10:43:59.045000Z | 2026-02-23T10:43:59.045000Z | Lec. | Количество рубрик. 1. 67. 2. 862. 3. 2000+ | false | false | false | |
799 | 2026-02-23T10:43:57.284000Z | 2026-02-23T10:43:57.284000Z | Lec. | Таблица 1— Распределение рубрик ГРНТИ | false | true | false | |
798 | 2026-02-23T10:43:55.668000Z | 2026-02-23T10:43:55.668000Z | Lec. | Корпус текстов ВИНИТИ не сбалансирован по отношению к кодам ГРНТИ, в результате чего количество уникальных рубрик на каждом уровне велико (таб. 1) | false | true | false | |
797 | 2026-02-23T10:43:53.892000Z | 2026-02-23T10:43:53.892000Z | Lec. | Такая многоуровневая структура обеспечивает детализированное и систематизированное описание научной информации | false | true | false | |
796 | 2026-02-23T10:43:52.217000Z | 2026-02-23T15:53:40.079000Z | Lec. | Государственный рубрикатор научно-технической информации (ГРНТИ) представляет собой трехуровневую иерархическую систему классификации | Государственный рубрикатор научно-технической информации (ГРНТИ) представляет собой трехуровневую иерархическую систему классификации. | false | true | true |
795 | 2026-02-23T10:43:50.612000Z | 2026-02-23T13:35:45.710000Z | Lec. | Исследования, проводимые ранее, подтверждают высокую эффективность BERT для решения задач научной классификации [20] | Исследования, проводимые ранее, подтверждают высокую эффективность BERT — для решения задач научной классификации [20]. | false | true | true |
794 | 2026-02-23T10:43:48.770000Z | 2026-02-23T13:49:30.153000Z | Lec. | Эффективно идентифицирует тематическую принадлежность статей с детализацией до подразделов научных дисциплин | Эффективно определяет тематическую принадлежность статей с детализацией до подразделов научных дисциплин. | false | true | true |
793 | 2026-02-23T10:43:46.845000Z | 2026-02-23T10:43:46.845000Z | Lec. | Способна адаптироваться к профессиональной терминологии различных научных областей; | false | true | false | |
792 | 2026-02-23T10:43:45.136000Z | 2026-02-23T13:28:27.644000Z | Lec. | Допускает специализированное обучение на корпусах научных текстов; | Допускает специализированное обучение на корпусах текстов научных. | false | true | true |
791 | 2026-02-23T10:43:43.392000Z | 2026-02-23T10:43:43.392000Z | Lec. | Данная модель обладает потенциалом для обработки научных публикаций, поскольку: | false | true | false | |
790 | 2026-02-23T10:43:41.827000Z | 2026-02-23T10:43:41.827000Z | Lec. | Среди лидирующих по популярности моделей данной архитектуры следует выделить BERT (Bidirectional Encoder Representations from Transformers) [19] | false | true | false | |
789 | 2026-02-23T10:43:40.177000Z | 2026-02-23T13:39:04.787000Z | Lec. | Трансформерные архитектуры демонстрируют исключительную эффективность при решении задач текстовой классификации, что обусловлено их способностью анализировать сложные семантические связи и долгосрочные зависимости между языковыми единицами в тексте [18] | Трансформерные архитектуры демонстрируют исключительную эффективность при решении задач текстовой классификации, что обусловлено их способностью анализировать сложные семантические связи и долгосрочные зависимости между языковыми единицами в тексте [18]. | false | true | true |
788 | 2026-02-23T10:43:38.201000Z | 2026-02-23T10:43:38.201000Z | Lec. | Архитектура transformer [17] | false | false | false | |
787 | 2026-02-23T10:43:36.545000Z | 2026-02-23T15:57:26.324000Z | Lec. | Skip connections: вид связи между слоями нейросети, при котором выход слоя пропускает несколько слоев, идущих в нейросети последовательно, и передается на вход слоя, следующего позже | Skip connections: вид связи между слоями нейросети, при котором выход одного из слоев напрямую передается на вход другого слоя, не обязательно последовательного. | false | true | true |
786 | 2026-02-23T10:43:34.756000Z | 2026-02-23T10:43:34.756000Z | Lec. | Layer normalization: слой нейросети, который производит нормализацию выхода из предшествующего слоя для каждой последовательности | false | true | false | |
785 | 2026-02-23T10:43:33.123000Z | 2026-02-23T10:43:33.123000Z | Lec. | Feed-forward network (FFN): двухслойная нейросеть, которая применяется независимо к каждому эмбеддингу токена | false | true | false | |
784 | 2026-02-23T10:43:31.476000Z | 2026-02-23T17:13:45.833000Z | Lec. | Также в трансформер входят следующие компоненты [17]: | Также в трансформере входят следующие компоненты: [17] | false | true | true |
783 | 2026-02-23T10:43:29.950000Z | 2026-02-23T13:24:54.539000Z | Lec. | Multi-head attention — позволяет параллельно обрабатывать различные участки входной последовательности; | Multi-head attention — позволяет параллельно обрабатывать различные участки входной последовательности. | false | true | true |
782 | 2026-02-23T10:43:28.183000Z | 2026-02-23T10:43:28.183000Z | Lec. | Механизм внимания — определяет части входной последовательности для решения задачи, которые являются самыми релевантными; | false | true | false | |
781 | 2026-02-23T10:43:26.634000Z | 2026-02-23T10:43:26.634000Z | Lec. | Ключевые особенности данной архитектуры (рис. 2): | false | true | false | |
780 | 2026-02-23T10:43:24.775000Z | 2026-02-23T16:19:52.385000Z | Lec. | В последнее десятилетие в области NLP (Natural Language Processing) получили распространение модели на основе архитектуры трансформер [17] | За последнее десятилетие в области NLP получили распространение модели на основе архитектуры трансформер [17]. | false | true | true |
779 | 2026-02-23T10:43:23.019000Z | 2026-02-23T10:43:23.019000Z | Lec. | Алгоритм сопоставления строк демонстрирует лучшие результаты для отдельных классов, где характеристики DDC в большей степени релевантны | false | true | false | |
778 | 2026-02-23T10:43:21.441000Z | 2026-02-23T13:44:36.780000Z | Lec. | Метод опорных векторов с линейным ядром в среднем превосходит другие алгоритмы; | Метод опорных векторов с линейным ядром в среднем превосходит другие алгоритмы; это подтверждается исследованиями. | false | true | true |
777 | 2026-02-23T10:43:19.868000Z | 2026-02-23T10:43:19.868000Z | Lec. | Результаты показали, что: | false | true | false | |
776 | 2026-02-23T10:43:17.650000Z | 2026-02-23T16:22:51.918000Z | Lec. | Другое исследование [16] оценивало эффективность шести алгоритмов машинного обучения и алгоритма сопоставления строк на основе характеристик десятичной классификации Дьюи (DDC) | Другое исследование [16] оценивало эффективность шести алгоритмов машинного обучения и алгоритма сопоставления строк на основе характеристик десятичной классификации Дьюи (DDC) | false | true | true |
775 | 2026-02-23T10:43:15.748000Z | 2026-02-23T18:02:18.056000Z | Lec. | Многослойный персептрон (MLP) [15] | Многослойный персептрон (MLP) [15] | false | true | true |
774 | 2026-02-23T10:43:13.610000Z | 2026-02-23T16:50:53.823000Z | Lec. | Метод k-ближайших соседей (k-NN) [14]; | Метод k-ближайших соседей [14]. | false | true | true |
773 | 2026-02-23T10:43:11.764000Z | 2026-02-23T13:45:40.703000Z | Lec. | Метод опорных векторов (SVM) [13]; | Метод опорных векторов (SVM) [13] — это алгоритм машинного обучения. | false | true | true |
772 | 2026-02-23T10:43:10.268000Z | 2026-02-23T10:43:10.268000Z | Lec. | Наивный байесовский классификатор (NB) [12]; | false | true | false | |
771 | 2026-02-23T10:43:08.503000Z | 2026-02-23T10:43:08.503000Z | Lec. | Логистическая регрессия (LR); | false | true | false | |
770 | 2026-02-23T10:43:06.900000Z | 2026-02-23T10:43:06.900000Z | Lec. | В работе [11] проведено сравнение эффективности различных алгоритмов обучения с учителем для классификации по рубрикам УДК: | false | true | false | |
769 | 2026-02-23T10:43:05.037000Z | 2026-02-23T10:43:05.037000Z | Lec. | В частности, полносвязные нейронные сети использовались для автоматической классификации статей по рубрикам универсального десятичного классификатора (УДК) [8—10] | false | true | false | |
768 | 2026-02-23T10:43:03.277000Z | 2026-02-23T16:11:34.825000Z | Lec. | Прогресс в области глубокого обучения привел к внедрению архитектур нейронных сетей, способных анализировать структуру текста и семантические связи между словами | Прогресс в области глубокого обучения привел к внедрению архитектур нейронных сетей, способных анализировать структуру текста, и семантических связей между словами. | false | true | true |
767 | 2026-02-23T10:43:01.517000Z | 2026-02-23T10:43:01.517000Z | Lec. | С развитием вычислительных технологий в классификации стали применяться традиционные алгоритмы, включая логистическую регрессию [7] | false | true | false | |
766 | 2026-02-23T10:42:59.731000Z | 2026-02-23T10:42:59.731000Z | Lec. | В дальнейшем были разработаны превосходящие по сложности классификаторы, использующие такие методы, как прямое и совместное цитирование, библиографические комбинации и гибридные подходы | false | true | false | |
765 | 2026-02-23T10:42:57.962000Z | 2026-02-23T13:27:45.411000Z | Lec. | Первые подобные системы основывались на анализе шаблонов цитирования | Первые подобные системы основывались на анализе шаблонов цитирования. | false | true | true |
764 | 2026-02-23T10:42:56.232000Z | 2026-02-23T17:53:18.087000Z | Lec. | Разработка автоматизированных систем научной классификации ведется на протяжении длительного времени [6] | Разработка автоматизированных систем научной классификации ведется уже давно. Ведение этой работы продолжается. | false | true | true |
763 | 2026-02-23T10:42:54.383000Z | 2026-02-23T13:39:15.510000Z | Lec. | В связи с чем возрастает актуальность автоматизированных методов анализа текстов и технологий машинного обучения для обработки массивов данных [5] | В связи с этим возрастает актуальность автоматизированных методов анализа текстов и технологий машинного обучения для обработки массивов данных [5]. | false | true | true |
762 | 2026-02-23T10:42:52.629000Z | 2026-02-23T15:53:08.508000Z | Lec. | Согласно исследованиям, ежегодный прирост научных публикаций составляет 4,10%, а период удвоения их количества — 17,3 года [4] | Согласно исследованиям, ежегодный прирост научных публикаций составляет 4,10%, а период удвоения их количества составляет примерно 17,3 года [4]. | false | true | true |
761 | 2026-02-23T10:42:51.037000Z | 2026-02-23T17:02:10.130000Z | Lec. | График динамики изменения количества публикаций научных статей по медицинской тематике за последнее десятилетие [3] | График динамики изменения количества публикаций научных статей по медицинской тематике за последнее десятилетие.[3] | false | true | true |
760 | 2026-02-23T10:42:49.286000Z | 2026-02-23T17:07:04.085000Z | Lec. | Объем цифровой информации, включая количество научных статей, продолжает расти экспоненциально (рис. 1; пример из области медицины [2]), что делает методы ручной обработки данных малоэффективными | Объем цифровой информации, включая количество научных статей, продолжает расти экспоненциально (рис. 1; пример из области медицины [2]), что делает методы ручной обработки данных малоефективными. | false | true | true |
759 | 2026-02-23T10:42:47.517000Z | 2026-02-23T16:01:39.024000Z | Lec. | Современное информационное пространство содержит десятки миллионов научных публикаций (как в открытом доступе, так и ограниченных [1]), что существенно осложняет их классификацию и анализ | Современное информационное пространство содержит десятки миллионов научных публикаций (как в открытом доступе, так и ограниченных [1]), что существенно осложняет их классификацию и анализ. | false | true | true |
758 | 2026-02-23T10:42:45.739000Z | 2026-02-23T10:42:45.739000Z | Lec. | Содержание. 1 Введение 3. 2 Исследование данных для обучения 5. 3 Реализация модели машинного обучения 5. 3.1 LoRA 5. 3.2 Warmup Steps 6. 3.3 Binary Cross-Entropy with Logits Loss 6. 3.4 AdamW 7. 3.5 Процесс обучения 7. 4 Эксперимент по использованию словаря сокращений ВИНИТИ РАН 8. 4.1 Подготовка данных 8. 4.2 Результ... | false | false | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.