id
int64
18
18.8k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 14:51:09
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 14:51:09
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
857
2026-02-23T10:45:45.367000Z
2026-02-23T10:45:45.367000Z
Lec.
Для отслеживания процесса обучения сохранялась модель и осуществлялся подсчет метрик в конце эпох
false
true
false
856
2026-02-23T10:45:43.775000Z
2026-02-23T16:44:48.264000Z
Lec.
Для одного экземпляра датасета текст для статьи разделялся на 512 токенов
Для одного экземпляра датасета текст для статьи разделялся на 512 токенов.
false
true
true
855
2026-02-23T10:45:41.842000Z
2026-02-23T13:25:45.124000Z
Lec.
В результате экспериментов данное значение оказалось оптимальным для обучения, поскольку при размере батча 16 обучение останавливалось при обучении с использованием имеющейся видеокарты
В результате экспериментов данное значение оказалось оптимальным для обучения, поскольку при размере батча 16 обучение останавливалось при использовании имеющейся видеокарты
false
true
true
854
2026-02-23T10:45:40.196000Z
2026-02-23T17:59:15.721000Z
Lec.
При обучении моделей данные предавались батчами размера 8, т.е. за одну итерацию обучения в модель передавались данные восьми статей
При обучении моделей данные предавались батчами размера 8, то есть за одну итерацию обучения в модель передавались данные восьми статей.
false
true
true
853
2026-02-23T10:45:38.008000Z
2026-02-23T18:05:54.151000Z
Lec.
Формула изменения параметров для AdamW:. где:. — экспоненциальное взвешенное дифференциала функции потерь на шаге ;. — экспоненциальное взвешенное квадрата дифференциала функции потерь на шаге ;. — параметры модели на шаге ;. — дифференциал функции потерь;. — исходный learning rate;. — коэффициент сглаживания;. — ко...
Формула изменения параметров для AdamW: где: ηt — экспоненциальное взвешенное дифференциала функции потерь на шаге t; β2t — экспоненциальное взвешенное квадрата дифференциала функции потерь на шаге t; mt — параметры модели на шаге t; ∇Lt — дифференциал функции потерь; α — исходный learning rate; β1 — коэффицие...
false
true
true
852
2026-02-23T10:45:35.872000Z
2026-02-23T10:45:35.872000Z
Lec.
Реализует механизм L2-регуляризации без затухания эффекта со временем
false
true
false
851
2026-02-23T10:45:34.078000Z
2026-02-23T10:45:34.078000Z
Lec.
Минимальная настройка гиперпараметров: AdamW обычно позволяет достичь высоких метрик качества при минимальной настройке, что упрощает процесс разработки модели
false
true
false
850
2026-02-23T10:45:32.290000Z
2026-02-23T16:49:31.045000Z
Lec.
Адаптивная скорость обучения: Индивидуальные настройки скорости обучения делают AdamW подходящим для решения задач с изменяющимися данными или наборами параметров
Адаптивность скорости обучения: Индивидуальные настройки скорости обучения делают AdamW подходящим для решения задач с изменяющимися данными или наборами параметров
false
true
true
849
2026-02-23T10:45:30.532000Z
2026-02-23T13:51:11.517000Z
Lec.
Демонстрирует увеличение в скорости сходимости по сравнению с традиционными методами (например, SGD) [26]
Демонстрирует увеличение скорости сходимости по сравнению с традиционными методами (например, SGD) [26]
false
true
true
848
2026-02-23T10:45:28.781000Z
2026-02-23T18:18:53.649000Z
Lec.
Скорость и эффективность: Использует исторические данные о градиентах для адаптивного обновления параметров
Скорость и эффективность: Использует исторические данные о градиентах для адаптивного обновления параметров.
false
true
true
847
2026-02-23T10:45:27.017000Z
2026-02-23T10:45:27.017000Z
Lec.
Указанный оптимизатор доказал свою эффективность при решении задач обработки естественного языка и был выбран по следующим ключевым причинам:
false
true
false
846
2026-02-23T10:45:25.341000Z
2026-02-23T10:45:25.341000Z
Lec.
В исследовании был применен алгоритм оптимизации AdamW [25] - модифицированная версия алгоритма Adam с улучшенной реализацией L2-регуляризации
false
true
false
845
2026-02-23T10:45:23.581000Z
2026-02-23T10:45:23.581000Z
Lec.
Для батча из N объектов:
true
true
false
844
2026-02-23T10:45:13.812000Z
2026-02-23T10:45:13.812000Z
Lec.
Функция потерь для одного объекта:
false
true
false
843
2026-02-23T10:45:12.378000Z
2026-02-23T10:45:12.378000Z
Lec.
Ниже представлено математическое описание метода:. — бинарная метка класса для объекта ;. — предсказанный логит (сырой выход) для класса объекта ;. ​ — вес класса (для учета дисбаланса классов);. - сигмоидная функция: ​
false
false
false
842
2026-02-23T10:45:10.530000Z
2026-02-23T17:47:33.695000Z
Lec.
Точная калибровка вероятностей принадлежности к классам;
Точная калибровка вероятностей принадлежности к классам;
false
true
true
841
2026-02-23T10:45:08.567000Z
2026-02-23T10:45:08.567000Z
Lec.
Возможность одновременного отнесения объекта к нескольким классам;
false
false
false
840
2026-02-23T10:45:07.026000Z
2026-02-23T13:46:18.416000Z
Lec.
Устойчивость к дисбалансу классов в обучающей выборке;
Устойчивость к дисбалансу классов в обучающей выборке.
false
true
true
839
2026-02-23T10:45:05.535000Z
2026-02-23T10:45:05.535000Z
Lec.
Преимущества выбранного подхода:
false
true
false
838
2026-02-23T10:45:03.692000Z
2026-02-23T10:45:03.692000Z
Lec.
Вычисляется бинарная кросс-энтропия отдельно для каждого класса
false
true
false
837
2026-02-23T10:45:01.893000Z
2026-02-23T16:23:30.528000Z
Lec.
Применяется сигмоидная функция активации для каждого выхода классификатора;
Применяется сигмоидная функция активации для каждого выхода классификатора.
false
true
true
836
2026-02-23T10:45:00.362000Z
2026-02-23T10:45:00.362000Z
Lec.
Используется схема независимой бинарной классификации для каждого класса;
false
true
false
835
2026-02-23T10:44:58.047000Z
2026-02-23T10:44:58.047000Z
Lec.
Особенности реализации:
false
true
false
834
2026-02-23T10:44:55.952000Z
2026-02-23T10:44:55.952000Z
Lec.
Для минимизации негативного влияния дисбаланса на процесс обучения была применена функция потерь BCEWithLogitsLoss (Binary Cross-Entropy with Logits Loss) [24]
false
true
false
833
2026-02-23T10:44:54.194000Z
2026-02-23T10:44:54.194000Z
Lec.
В ходе исследования была выявлена существенная проблема дисбаланса классов в тренировочных данных
false
true
false
832
2026-02-23T10:44:52.262000Z
2026-02-23T10:44:52.262000Z
Lec.
Улучшения сходимости алгоритма оптимизации
false
true
false
831
2026-02-23T10:44:50.743000Z
2026-02-23T10:44:50.743000Z
Lec.
Стабилизации изменения функции потерь;
false
true
false
830
2026-02-23T10:44:49.211000Z
2026-02-23T10:44:49.211000Z
Lec.
Такой подход позволил добиться:
false
true
false
829
2026-02-23T10:44:47.637000Z
2026-02-23T10:44:47.637000Z
Lec.
После завершения прогрева использовался стандартный режим обучения
false
true
false
828
2026-02-23T10:44:45.925000Z
2026-02-23T10:44:45.925000Z
Lec.
На данном этапе скорость обучения линейно возрастала от 0 до целевого значения
false
true
false
827
2026-02-23T10:44:44.297000Z
2026-02-23T17:42:40.364000Z
Lec.
Период прогрева установлен для первых 10 шагов обучения
Период прогрева установлен для первых десяти шагов обучения
false
true
true
826
2026-02-23T10:44:42.755000Z
2026-02-23T13:41:38.330000Z
Lec.
В рамках исследования метод Warmup был применен при обучении моделей BERT:
В рамках исследования метод Warmup был применен при обучении моделей BERT.
false
true
true
825
2026-02-23T10:44:41.043000Z
2026-02-23T17:54:30.401000Z
Lec.
Для решения данных проблем был применен метод прогрева скорости обучения (Warmup Steps), теоретическое обоснование которого представлено в работе [23]
Для решения данных проблем был применен метод прогрева скорости обучения (Warmup Steps), теоретическое обоснование которого представлено в работе [23]. Однако для полной информации о применении этого метода необходимо указать конкретные шаги или результаты, которые были достигнуты с его помощью.
false
true
true
824
2026-02-23T10:44:39.397000Z
2026-02-23T13:28:04.837000Z
Lec.
Проблемам сходимости алгоритма оптимизации
Проблемам сходства алгоритма оптимизации
false
true
true
823
2026-02-23T10:44:37.878000Z
2026-02-23T10:44:37.878000Z
Lec.
Резкие колебания параметров модели;
false
true
false
822
2026-02-23T10:44:36.391000Z
2026-02-23T10:44:36.391000Z
Lec.
Нестабильность градиентов;
false
true
false
821
2026-02-23T10:44:34.876000Z
2026-02-23T10:44:34.876000Z
Lec.
Есть вероятность, что данное сочетание вызовет следующие негативные эффекты:
false
true
false
820
2026-02-23T10:44:32.587000Z
2026-02-23T17:20:59.017000Z
Lec.
На этапе инициализации обучения модели существует ключевая проблема, связанная с комбинацией двух факторов: случайного распределения начальных весов и установки чрезмерно высокого значения learning rate
На этапе инициализации обучения модели существует ключевая проблема, связанная с комбинацией двух факторов: случайного распределения начальных весов и установки чрезмерно высокого значения learning_rate.
false
true
true
819
2026-02-23T10:44:30.927000Z
2026-02-23T10:44:30.927000Z
Lec.
Поскольку r мало (обычно 8—64), количество обучаемых параметров сокращается в сотни раз по сравнению с полной настройкой
false
true
false
818
2026-02-23T10:44:29.142000Z
2026-02-23T10:44:29.142000Z
Lec.
Эффективность по памяти и времени вычислений
false
true
false
817
2026-02-23T10:44:27.482000Z
2026-02-23T13:37:33.221000Z
Lec.
Обновленные веса выражаются так: ,. где — исходная матрица весов
Обновленные веса выражаются так: №,. где — исходная матрица весов.
false
true
true
816
2026-02-23T10:44:25.751000Z
2026-02-23T17:26:20.188000Z
Lec.
Для каждого обучаемого слоя вводятся две матрицы:. (низкоранговая проекция);. (восстановление размерности), где (ранк адаптации)
Для каждого обучаемого слоя вводятся две матрицы:. (низкорангальная проекция);. (восстановление размерности), где (ранг адаптации)
false
true
true
815
2026-02-23T10:44:23.976000Z
2026-02-23T10:44:23.976000Z
Lec.
Низкоранговые адаптационные матрицы
false
true
false
814
2026-02-23T10:44:22.415000Z
2026-02-23T13:45:22.838000Z
Lec.
Предобученная модель остается неизменной, что предотвращает катастрофическое забывание и сохраняет ее обобщающую способность
Предобученная модель остается неизменной, что предотвращает качественное забывание и сохраняет ее обобщающую способность
false
true
true
813
2026-02-23T10:44:20.662000Z
2026-02-23T10:44:20.662000Z
Lec.
Замороженные исходные веса
false
false
false
812
2026-02-23T10:44:19.161000Z
2026-02-23T17:54:08.301000Z
Lec.
Основные принципы метода LoRA:
Основные принципы метода LoRA:.
false
true
true
811
2026-02-23T10:44:17.641000Z
2026-02-23T10:44:17.641000Z
Lec.
В отличие от классического fine-tuning, который требует обновления всех весов модели, LoRA предлагает заморозить исходные параметры и внедрить дополнительные низкоранговые матрицы, что существенно сокращает вычислительные затраты и объем памяти
false
true
false
810
2026-02-23T10:44:15.868000Z
2026-02-23T16:44:15.905000Z
Lec.
Метод LoRA (Low-Rank Adaptation) основан на низкоранговой адаптации параметров
Метод LoRA (Low-Rank Adaptation) основан на низкоранговой адаптации параметров моделей
false
true
true
809
2026-02-23T10:44:14.138000Z
2026-02-23T13:50:29.937000Z
Lec.
Устойчивое снижение функции потерь
Устойчивое снижение потерь функций
false
true
true
808
2026-02-23T10:44:12.689000Z
2026-02-23T10:44:12.689000Z
Lec.
Сокращение количества обучаемых параметров на 99%;
false
true
false
807
2026-02-23T10:44:11.165000Z
2026-02-23T10:44:11.165000Z
Lec.
Экспериментальные результаты продемонстрировали, что при ранге адаптации указанный метод обеспечивает:
false
true
false
806
2026-02-23T10:44:09.358000Z
2026-02-23T16:57:04.240000Z
Lec.
В ходе исследования был применен метод низкоранговой адаптации LoRA (Low-Rank Adaptation of Large Language Models) [22], позволяющий существенно повысить эффективность процесса обучения при работе с крупными языковыми моделями
В ходе исследования был применен метод низкоранговой адаптации LoRA (Low-Rank Adaptation of Large Language Models) [22], позволяющий существенно повысить эффективность процесса обучения при работе с крупными языковыми моделями
false
true
true
805
2026-02-23T10:44:07.594000Z
2026-02-23T10:44:07.594000Z
Lec.
Распределение кодов ГРНТИ первого уровня
false
true
false
804
2026-02-23T10:44:06.138000Z
2026-02-23T10:44:06.138000Z
Lec.
Несбалансированное распределение данных способствует систематической недооценке моделями редко встречающихся классов, снижая общую эффективность классификации [21]
false
true
false
803
2026-02-23T10:44:04.501000Z
2026-02-23T10:44:04.501000Z
Lec.
Аналогичная ситуация характерна для второго и третьего уровней классификации
false
true
false
802
2026-02-23T10:44:02.655000Z
2026-02-23T10:44:02.655000Z
Lec.
В результате анализ распределения данных для первого уровня ГРНТИ была выявлена из несбалансированность (рис. 3)
false
true
false
801
2026-02-23T10:44:00.735000Z
2026-02-23T16:44:33.007000Z
Lec.
Для обучения модели был использован русскоязычный датасет, содержащий тексты аннотаций, названий статей и кодов ГРНТИ классифицированных научных статей различных тематик
Для обучения модели был использован русскоязычный датасет, содержащий тексты аннотаций, наименования статей и коды ГРНТИ классифицированных по ГРНТИ научных статей различных тематик.
false
true
true
800
2026-02-23T10:43:59.045000Z
2026-02-23T10:43:59.045000Z
Lec.
Количество рубрик. 1. 67. 2. 862. 3. 2000+
false
false
false
799
2026-02-23T10:43:57.284000Z
2026-02-23T10:43:57.284000Z
Lec.
Таблица 1— Распределение рубрик ГРНТИ
false
true
false
798
2026-02-23T10:43:55.668000Z
2026-02-23T10:43:55.668000Z
Lec.
Корпус текстов ВИНИТИ не сбалансирован по отношению к кодам ГРНТИ, в результате чего количество уникальных рубрик на каждом уровне велико (таб. 1)
false
true
false
797
2026-02-23T10:43:53.892000Z
2026-02-23T10:43:53.892000Z
Lec.
Такая многоуровневая структура обеспечивает детализированное и систематизированное описание научной информации
false
true
false
796
2026-02-23T10:43:52.217000Z
2026-02-23T15:53:40.079000Z
Lec.
Государственный рубрикатор научно-технической информации (ГРНТИ) представляет собой трехуровневую иерархическую систему классификации
Государственный рубрикатор научно-технической информации (ГРНТИ) представляет собой трехуровневую иерархическую систему классификации.
false
true
true
795
2026-02-23T10:43:50.612000Z
2026-02-23T13:35:45.710000Z
Lec.
Исследования, проводимые ранее, подтверждают высокую эффективность BERT для решения задач научной классификации [20]
Исследования, проводимые ранее, подтверждают высокую эффективность BERT — для решения задач научной классификации [20].
false
true
true
794
2026-02-23T10:43:48.770000Z
2026-02-23T13:49:30.153000Z
Lec.
Эффективно идентифицирует тематическую принадлежность статей с детализацией до подразделов научных дисциплин
Эффективно определяет тематическую принадлежность статей с детализацией до подразделов научных дисциплин.
false
true
true
793
2026-02-23T10:43:46.845000Z
2026-02-23T10:43:46.845000Z
Lec.
Способна адаптироваться к профессиональной терминологии различных научных областей;
false
true
false
792
2026-02-23T10:43:45.136000Z
2026-02-23T13:28:27.644000Z
Lec.
Допускает специализированное обучение на корпусах научных текстов;
Допускает специализированное обучение на корпусах текстов научных.
false
true
true
791
2026-02-23T10:43:43.392000Z
2026-02-23T10:43:43.392000Z
Lec.
Данная модель обладает потенциалом для обработки научных публикаций, поскольку:
false
true
false
790
2026-02-23T10:43:41.827000Z
2026-02-23T10:43:41.827000Z
Lec.
Среди лидирующих по популярности моделей данной архитектуры следует выделить BERT (Bidirectional Encoder Representations from Transformers) [19]
false
true
false
789
2026-02-23T10:43:40.177000Z
2026-02-23T13:39:04.787000Z
Lec.
Трансформерные архитектуры демонстрируют исключительную эффективность при решении задач текстовой классификации, что обусловлено их способностью анализировать сложные семантические связи и долгосрочные зависимости между языковыми единицами в тексте [18]
Трансформерные архитектуры демонстрируют исключительную эффективность при решении задач текстовой классификации, что обусловлено их способностью анализировать сложные семантические связи и долгосрочные зависимости между языковыми единицами в тексте [18].
false
true
true
788
2026-02-23T10:43:38.201000Z
2026-02-23T10:43:38.201000Z
Lec.
Архитектура transformer [17]
false
false
false
787
2026-02-23T10:43:36.545000Z
2026-02-23T15:57:26.324000Z
Lec.
Skip connections: вид связи между слоями нейросети, при котором выход слоя пропускает несколько слоев, идущих в нейросети последовательно, и передается на вход слоя, следующего позже
Skip connections: вид связи между слоями нейросети, при котором выход одного из слоев напрямую передается на вход другого слоя, не обязательно последовательного.
false
true
true
786
2026-02-23T10:43:34.756000Z
2026-02-23T10:43:34.756000Z
Lec.
Layer normalization: слой нейросети, который производит нормализацию выхода из предшествующего слоя для каждой последовательности
false
true
false
785
2026-02-23T10:43:33.123000Z
2026-02-23T10:43:33.123000Z
Lec.
Feed-forward network (FFN): двухслойная нейросеть, которая применяется независимо к каждому эмбеддингу токена
false
true
false
784
2026-02-23T10:43:31.476000Z
2026-02-23T17:13:45.833000Z
Lec.
Также в трансформер входят следующие компоненты [17]:
Также в трансформере входят следующие компоненты: [17]
false
true
true
783
2026-02-23T10:43:29.950000Z
2026-02-23T13:24:54.539000Z
Lec.
Multi-head attention — позволяет параллельно обрабатывать различные участки входной последовательности;
Multi-head attention — позволяет параллельно обрабатывать различные участки входной последовательности.
false
true
true
782
2026-02-23T10:43:28.183000Z
2026-02-23T10:43:28.183000Z
Lec.
Механизм внимания — определяет части входной последовательности для решения задачи, которые являются самыми релевантными;
false
true
false
781
2026-02-23T10:43:26.634000Z
2026-02-23T10:43:26.634000Z
Lec.
Ключевые особенности данной архитектуры (рис. 2):
false
true
false
780
2026-02-23T10:43:24.775000Z
2026-02-23T16:19:52.385000Z
Lec.
В последнее десятилетие в области NLP (Natural Language Processing) получили распространение модели на основе архитектуры трансформер [17]
За последнее десятилетие в области NLP получили распространение модели на основе архитектуры трансформер [17].
false
true
true
779
2026-02-23T10:43:23.019000Z
2026-02-23T10:43:23.019000Z
Lec.
Алгоритм сопоставления строк демонстрирует лучшие результаты для отдельных классов, где характеристики DDC в большей степени релевантны
false
true
false
778
2026-02-23T10:43:21.441000Z
2026-02-23T13:44:36.780000Z
Lec.
Метод опорных векторов с линейным ядром в среднем превосходит другие алгоритмы;
Метод опорных векторов с линейным ядром в среднем превосходит другие алгоритмы; это подтверждается исследованиями.
false
true
true
777
2026-02-23T10:43:19.868000Z
2026-02-23T10:43:19.868000Z
Lec.
Результаты показали, что:
false
true
false
776
2026-02-23T10:43:17.650000Z
2026-02-23T16:22:51.918000Z
Lec.
Другое исследование [16] оценивало эффективность шести алгоритмов машинного обучения и алгоритма сопоставления строк на основе характеристик десятичной классификации Дьюи (DDC)
Другое исследование [16] оценивало эффективность шести алгоритмов машинного обучения и алгоритма сопоставления строк на основе характеристик десятичной классификации Дьюи (DDC)
false
true
true
775
2026-02-23T10:43:15.748000Z
2026-02-23T18:02:18.056000Z
Lec.
Многослойный персептрон (MLP) [15]
Многослойный персептрон (MLP) [15]
false
true
true
774
2026-02-23T10:43:13.610000Z
2026-02-23T16:50:53.823000Z
Lec.
Метод k-ближайших соседей (k-NN) [14];
Метод k-ближайших соседей [14].
false
true
true
773
2026-02-23T10:43:11.764000Z
2026-02-23T13:45:40.703000Z
Lec.
Метод опорных векторов (SVM) [13];
Метод опорных векторов (SVM) [13] — это алгоритм машинного обучения.
false
true
true
772
2026-02-23T10:43:10.268000Z
2026-02-23T10:43:10.268000Z
Lec.
Наивный байесовский классификатор (NB) [12];
false
true
false
771
2026-02-23T10:43:08.503000Z
2026-02-23T10:43:08.503000Z
Lec.
Логистическая регрессия (LR);
false
true
false
770
2026-02-23T10:43:06.900000Z
2026-02-23T10:43:06.900000Z
Lec.
В работе [11] проведено сравнение эффективности различных алгоритмов обучения с учителем для классификации по рубрикам УДК:
false
true
false
769
2026-02-23T10:43:05.037000Z
2026-02-23T10:43:05.037000Z
Lec.
В частности, полносвязные нейронные сети использовались для автоматической классификации статей по рубрикам универсального десятичного классификатора (УДК) [8—10]
false
true
false
768
2026-02-23T10:43:03.277000Z
2026-02-23T16:11:34.825000Z
Lec.
Прогресс в области глубокого обучения привел к внедрению архитектур нейронных сетей, способных анализировать структуру текста и семантические связи между словами
Прогресс в области глубокого обучения привел к внедрению архитектур нейронных сетей, способных анализировать структуру текста, и семантических связей между словами.
false
true
true
767
2026-02-23T10:43:01.517000Z
2026-02-23T10:43:01.517000Z
Lec.
С развитием вычислительных технологий в классификации стали применяться традиционные алгоритмы, включая логистическую регрессию [7]
false
true
false
766
2026-02-23T10:42:59.731000Z
2026-02-23T10:42:59.731000Z
Lec.
В дальнейшем были разработаны превосходящие по сложности классификаторы, использующие такие методы, как прямое и совместное цитирование, библиографические комбинации и гибридные подходы
false
true
false
765
2026-02-23T10:42:57.962000Z
2026-02-23T13:27:45.411000Z
Lec.
Первые подобные системы основывались на анализе шаблонов цитирования
Первые подобные системы основывались на анализе шаблонов цитирования.
false
true
true
764
2026-02-23T10:42:56.232000Z
2026-02-23T17:53:18.087000Z
Lec.
Разработка автоматизированных систем научной классификации ведется на протяжении длительного времени [6]
Разработка автоматизированных систем научной классификации ведется уже давно. Ведение этой работы продолжается.
false
true
true
763
2026-02-23T10:42:54.383000Z
2026-02-23T13:39:15.510000Z
Lec.
В связи с чем возрастает актуальность автоматизированных методов анализа текстов и технологий машинного обучения для обработки массивов данных [5]
В связи с этим возрастает актуальность автоматизированных методов анализа текстов и технологий машинного обучения для обработки массивов данных [5].
false
true
true
762
2026-02-23T10:42:52.629000Z
2026-02-23T15:53:08.508000Z
Lec.
Согласно исследованиям, ежегодный прирост научных публикаций составляет 4,10%, а период удвоения их количества — 17,3 года [4]
Согласно исследованиям, ежегодный прирост научных публикаций составляет 4,10%, а период удвоения их количества составляет примерно 17,3 года [4].
false
true
true
761
2026-02-23T10:42:51.037000Z
2026-02-23T17:02:10.130000Z
Lec.
График динамики изменения количества публикаций научных статей по медицинской тематике за последнее десятилетие [3]
График динамики изменения количества публикаций научных статей по медицинской тематике за последнее десятилетие.[3]
false
true
true
760
2026-02-23T10:42:49.286000Z
2026-02-23T17:07:04.085000Z
Lec.
Объем цифровой информации, включая количество научных статей, продолжает расти экспоненциально (рис. 1; пример из области медицины [2]), что делает методы ручной обработки данных малоэффективными
Объем цифровой информации, включая количество научных статей, продолжает расти экспоненциально (рис. 1; пример из области медицины [2]), что делает методы ручной обработки данных малоефективными.
false
true
true
759
2026-02-23T10:42:47.517000Z
2026-02-23T16:01:39.024000Z
Lec.
Современное информационное пространство содержит десятки миллионов научных публикаций (как в открытом доступе, так и ограниченных [1]), что существенно осложняет их классификацию и анализ
Современное информационное пространство содержит десятки миллионов научных публикаций (как в открытом доступе, так и ограниченных [1]), что существенно осложняет их классификацию и анализ.
false
true
true
758
2026-02-23T10:42:45.739000Z
2026-02-23T10:42:45.739000Z
Lec.
Содержание. 1 Введение 3. 2 Исследование данных для обучения 5. 3 Реализация модели машинного обучения 5. 3.1 LoRA 5. 3.2 Warmup Steps 6. 3.3 Binary Cross-Entropy with Logits Loss 6. 3.4 AdamW 7. 3.5 Процесс обучения 7. 4 Эксперимент по использованию словаря сокращений ВИНИТИ РАН 8. 4.1 Подготовка данных 8. 4.2 Результ...
false
false
false