id
int64
18
18.8k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 14:51:09
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 14:51:09
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
957
2026-02-23T10:48:43.570000Z
2026-02-23T10:48:43.570000Z
Lec.
Palgrave, 2021
false
false
false
956
2026-02-23T10:48:41.764000Z
2026-02-23T10:48:41.764000Z
Lec.
Commun. 2021 81
false
false
false
955
2026-02-23T10:48:40.063000Z
2026-02-23T10:48:40.063000Z
Lec.
Growth rates of modern science: a latent piecewise growth curve approach to model publication numbers from established and new literature databases // Humanit
false
false
false
954
2026-02-23T10:48:38.145000Z
2026-02-23T10:48:38.145000Z
Lec.
Bornmann L., Haunschild R., Mutz R
false
false
false
953
2026-02-23T10:48:36.471000Z
2026-02-23T10:48:36.471000Z
Lec.
P. 1953—1967
false
false
false
952
2026-02-23T10:48:34.786000Z
2026-02-23T10:48:34.786000Z
Lec.
Vol. 127, No. 4
false
false
false
951
2026-02-23T10:48:32.678000Z
2026-02-23T10:48:32.678000Z
Lec.
Scientometrics, 2022
false
false
false
950
2026-02-23T10:48:30.872000Z
2026-02-23T13:24:53.453000Z
Lec.
How to catch trends using MeSH terms analysis? // Scientometrics
How to catch trends using MeSH terms analysis? // Scientometrics.
false
true
true
949
2026-02-23T10:48:29.157000Z
2026-02-23T10:48:29.157000Z
Lec.
Ilgisonis E
false
false
false
948
2026-02-23T10:48:27.537000Z
2026-02-23T10:48:27.537000Z
Lec.
Vol. 84, No. 3
false
false
false
947
2026-02-23T10:48:25.615000Z
2026-02-23T10:48:25.615000Z
Lec.
Scientometrics, 2010
false
false
false
946
2026-02-23T10:48:23.789000Z
2026-02-23T18:21:34.673000Z
Lec.
The rate of growth in scientific publication and the decline in coverage provided by Science Citation Index // Scientometrics
The rate of growth in scientific publications and the decline in coverage provided by Science Citation Index // Scientometrics
false
true
true
945
2026-02-23T10:48:22.046000Z
2026-02-23T10:48:22.046000Z
Lec.
Larsen P.O., von Ins M
true
false
false
944
2026-02-23T10:48:20.440000Z
2026-02-23T10:48:20.440000Z
Lec.
Vol. 56, No. 4
false
false
false
943
2026-02-23T10:48:18.495000Z
2026-02-23T10:48:18.495000Z
Lec.
Springer, 2022
false
false
false
942
2026-02-23T10:48:16.756000Z
2026-02-23T10:48:16.756000Z
Lec.
Linguist. 2022 564
false
false
false
941
2026-02-23T10:48:15.075000Z
2026-02-23T10:48:15.076000Z
Lec.
Benefits of Using Open Access: Citation Analysis // Autom
false
true
false
940
2026-02-23T10:48:13.211000Z
2026-02-23T10:48:13.211000Z
Lec.
Komaritsa V.N
true
false
false
939
2026-02-23T10:48:11.825000Z
2026-02-23T10:48:11.825000Z
Lec.
Улучшение качества предсказаний рубрик 2-го уровня, использование моделей машинного обучения для предсказания 3-го уровня ГРНТИ
false
true
false
938
2026-02-23T10:48:10.010000Z
2026-02-23T18:26:47.287000Z
Lec.
Использование FAISS [27] для получения фиксированного числа классов ГРНТИ
Использование FAISS [27] для поиска наиболее близких к заданным точкам в пространстве ГРНТИ
false
true
true
937
2026-02-23T10:48:08.044000Z
2026-02-23T16:59:39.496000Z
Lec.
Использование метода Dual Contrastive Learning для обучения BERT при предсказании рубрик 1-го уровня
Использование метода "Dual Contrastive Learning" для обучения BERT при предсказании рубрик 1-го уровня.
false
true
true
936
2026-02-23T10:48:06.291000Z
2026-02-23T10:48:06.291000Z
Lec.
Перспективы дальнейшей работы:
false
true
false
935
2026-02-23T10:48:04.384000Z
2026-02-23T13:47:18.290000Z
Lec.
Изучение метода Dual Contrastive Learning показало перспективность его использования для решения задачи multilabel классификации
Изучение метода Dual Contrastive Learning показало перспективность его использования для решения задачи многозначной классификации.
false
true
true
934
2026-02-23T10:48:02.650000Z
2026-02-23T10:48:02.650000Z
Lec.
Анализ плоского и иерархического подходов показал, что для рассматриваемого тренировочного и тестового датасета лучшие значения метрик достигаются при использовании плоского классификатора для 2-го уровня ГРНТИ
false
true
false
933
2026-02-23T10:48:00.980000Z
2026-02-23T18:14:24.612000Z
Lec.
Cравнение методов обучения подтвердило преимущество использования метода LoRA по сравнению с обучением только слоя классификации для предсказания первого уровня ГРНТИ
Cравнение методов обучения подтвердило преимущество использования метода LoRA по сравнению с обучением только слоя классификации для предсказания первого уровня ГРН
false
true
true
932
2026-02-23T10:47:59.419000Z
2026-02-23T13:29:41.925000Z
Lec.
Эксперименты по предобработке данных показали, что использование расшифровок сокращений из словаря ВИНИТИ РАН для тренировочных данных не приводит к улучшению качества предсказаний моделей
Эксперименты по предобработке данных показали, что использование расшифровок сокращений из словаря ВНИИТИ РАН для тренировочных данных не приводит к улучшению качества предсказаний моделей.
false
true
true
931
2026-02-23T10:47:57.607000Z
2026-02-23T15:58:10.154000Z
Lec.
Разработанное программное обеспечение обеспечило полный цикл обработки данных: от предобработки текстов до обучения и оценки моделей, включает методы LoRA, Warmup steps, BCEWithLogitsLoss и AdamW для ускорения, улучшения процесса обучения моделей
Разработанное программное обеспечение обеспечило полный цикл обработки данных: от предобработки текстов до обучения и оценки моделей, включает методы LoRA, warmup steps, BCEWithLogitsLoss и AdamW для ускорения и улучшения процесса обучения моделей.
false
true
true
930
2026-02-23T10:47:55.735000Z
2026-02-23T10:47:55.735000Z
Lec.
Анализ существующих решений для классификации по рубрикам ГРНТИ показал, что существующие решения для русскоязычных текстов осуществляют классификацию до 2-го уровня ГРНТИ, что недостаточно для полноценной классификации текстов
false
true
false
929
2026-02-23T10:47:53.949000Z
2026-02-23T13:33:27.820000Z
Lec.
Особое внимание было уделено сравнению плоских и иерархических подходов, а также специфике multilabel классификации
Особое внимание было уделено сравнению плоских и иерархических подходов, а также специфике мультилэйбл классификации
false
true
true
928
2026-02-23T10:47:52.125000Z
2026-02-23T13:26:32.246000Z
Lec.
Теоретический анализ позволил систематизировать современные методы классификации в машинном обучении, выделив их сильные и слабые стороны применительно к задаче автоматической рубрикации научных статей
Теоретический анализ позволил систематизировать современные методы классификации в машинном обучении, выделив их сильные и слабые стороны применительно к задаче автоматизированной рубрикации научных статей.
false
true
true
927
2026-02-23T10:47:50.246000Z
2026-02-23T10:47:50.246000Z
Lec.
При прохождении производственной практики были получены следующие ключевые результаты:
false
true
false
926
2026-02-23T10:47:48.548000Z
2026-02-23T10:47:48.548000Z
Lec.
Для решения задачи multilabel классификации рубрик ГРНТИ 1-го уровня в рамках выполнения ВКР планируется проведение экспериментов по использованию данного метода при обучении модели BERT
false
true
false
925
2026-02-23T10:47:46.693000Z
2026-02-23T10:47:46.693000Z
Lec.
Цель: сделать представления данных ближе к представлениям меток, которые им соответствуют
false
true
false
924
2026-02-23T10:47:44.800000Z
2026-02-23T10:47:44.800000Z
Lec.
Сравнивает представления данных с представлениями их меток
true
true
false
923
2026-02-23T10:47:42.804000Z
2026-02-23T10:47:42.804000Z
Lec.
Контрастная потеря между данными и метками (Data-Label Contrastive Loss):
false
false
false
922
2026-02-23T10:47:40.907000Z
2026-02-23T10:47:40.907000Z
Lec.
Цель: сделать представления похожих данных ближе, а разных — дальше
false
true
false
921
2026-02-23T10:47:39.376000Z
2026-02-23T10:47:39.376000Z
Lec.
Сравнивает представления самих данных (например, текстов или изображений)
false
false
false
920
2026-02-23T10:47:37.817000Z
2026-02-23T10:47:37.817000Z
Lec.
Контрастная потеря между данными (Data-Data Contrastive Loss):
false
true
false
919
2026-02-23T10:47:35.994000Z
2026-02-23T13:40:44.867000Z
Lec.
В случае Dual-Contrastive Learning, данная идея расширяется за счет использования двух типов функций контрастных потерь, что позволяет модели лучше учитывать как семантику данных, так и информацию о метках (labels):
В случае Dual-Contrastive Learning данная идея расширяется за счет использования двух типов функций контрастных потерь, что позволяет моделям лучше учитывать как семантику данных, так и информацию о метках (labels):
false
true
true
918
2026-02-23T10:47:34.145000Z
2026-02-23T10:47:34.145000Z
Lec.
Он основан на идее контрастного обучения: модель учится различать похожие (положительные) и разные (отрицательные) примеры
false
true
false
917
2026-02-23T10:47:32.675000Z
2026-02-23T10:47:32.675000Z
Lec.
Dual-Contrastive Learning (DCL) [Exploiting Dual Contrastive Learning Algorithm for Scientific Texts Classification] — метод обучения, который используется для улучшения качества представлений (embeddings) в задачах машинного обучения, в том числе в задачах классификации
false
true
false
916
2026-02-23T10:47:30.810000Z
2026-02-23T10:47:30.810000Z
Lec.
График зависимости f1 от threshold на тестовом датасете при использовании иерархического классификатора
false
true
false
915
2026-02-23T10:47:28.757000Z
2026-02-23T13:31:06.943000Z
Lec.
График зависимости f1 от threshold на тестовом датасете при использовании плоского классификатора
График зависимости f1 от threshold на тестовом датасете при использовании плоского классификатора.
false
true
true
914
2026-02-23T10:47:27.013000Z
2026-02-23T13:49:36.202000Z
Lec.
Графики для результатов тестирования при использовании плоского классификатора (рис. 15) и иерархического (рис. 16) представлены ниже
Графики для результатов тестирования при использовании плоского классификатора (на рис. 15) и иерархического (на рис. 16) представлены ниже.
false
true
true
913
2026-02-23T10:47:25.375000Z
2026-02-23T10:47:25.375000Z
Lec.
Иерархический классификатор. 0.3. 0.42. 0.54. 0.51
false
false
false
912
2026-02-23T10:47:23.834000Z
2026-02-23T10:47:23.834000Z
Lec.
Плоский классификатор. 0.25. 0.47. 0.57. 0.54
false
false
false
911
2026-02-23T10:47:22.313000Z
2026-02-23T10:47:22.313000Z
Lec.
Таблица 4 — Метрики в зависимости от вида классификатора: плоский и иерархический
false
false
false
910
2026-02-23T10:47:19.939000Z
2026-02-23T10:47:19.939000Z
Lec.
Ниже представлена таблица с результатами для метрик для плоского и иерархического классификатора при обучении в течение 8 эпох (таб. 4).­. ­­­­
false
true
false
909
2026-02-23T10:47:18.231000Z
2026-02-23T10:47:18.231000Z
Lec.
Диаграмма работы иерархического классификатора
false
true
false
908
2026-02-23T10:47:16.087000Z
2026-02-23T13:39:00.342000Z
Lec.
Текстовые данные статьи вместе с названием первой рубрики ГРНТИ подаются на вход второй модели BERT, которая использует предоставленную информацию для предсказания
Текстовые данные статьи вместе с названием первой рубрики ГРН подаются на вход второй модели BERT, которая использует предоставленную информацию для предсказания
false
true
true
907
2026-02-23T10:47:14.247000Z
2026-02-23T10:47:14.247000Z
Lec.
Для каждой модели BERT результатом классификации является численная метка рубрики ГРНТИ, к которой подбирается текстовое представление из словаря ГРНТИ
false
true
false
906
2026-02-23T10:47:12.703000Z
2026-02-23T10:47:12.703000Z
Lec.
Иерархические классификаторы учитывают структуру взаимосвязей между классами, организованную в виде дерева (рис. 14)
false
true
false
905
2026-02-23T10:47:11.007000Z
2026-02-23T10:47:11.007000Z
Lec.
Диаграмма работы плоского классификатора
false
false
false
904
2026-02-23T10:47:09.260000Z
2026-02-23T17:20:48.820000Z
Lec.
Названия классов 1-го уровня, предсказания моделей для 1-го уровня ГРНТИ не учитываются, пому процесс обучения модели для предсказания 2-го уровня аналогичен процессу обучения для модели 1-го уровня ГРНТИ
Названия классов 1-го уровня не учитываются, поскольку предсказания моделей для 1-го уровня ГРНТИ аналогичны процессу обучения модели для предсказания 2-го уровня, который является аналогом процесса обучения модели 1-го уровня ГРНТИ.
false
true
true
903
2026-02-23T10:47:07.630000Z
2026-02-23T13:35:40.713000Z
Lec.
При использовании плоского классификатора все классы рассматриваются как независимые и равноправные, без учета возможных взаимосвязей между ними (рис. 13)
При использовании плоского классификатора все классы рассматриваются как независимые и равноправные, без учета возможных взаимосвязей между ними (см. рис. 13)
false
true
true
902
2026-02-23T10:47:05.993000Z
2026-02-23T10:47:05.993000Z
Lec.
Процесс подготовки данных для тренировки совпадает с процессом подготовки данных для плоского классификатора, но в начало текста каждой статьи добавляются названия рубрик 2-го, порядка, к которым она относится по мнению экспертов
false
true
false
901
2026-02-23T10:47:04.097000Z
2026-02-23T13:50:10.916000Z
Lec.
Для плоского классификатора после удаления экземпляров классов выполняется обработка данных, совпадающая с обработкой данных для 1-го датасета при классификации по 1-му уровню ГРНТИ
Для плоского классификатора после удаления экземпляров классов выполняется обработка данных, совпадающая с обработкой данных для 1-го датасета при классификации по 1-му уровню ГРНТ
false
true
true
900
2026-02-23T10:47:02.512000Z
2026-02-23T10:47:02.512000Z
Lec.
Количество оставшихся классов 2-й уровень ГРНТИ
false
true
false
899
2026-02-23T10:47:00.991000Z
2026-02-23T10:47:00.991000Z
Lec.
Кол-во удаляемых классов 2-й уровень ГРНТИ
false
false
false
898
2026-02-23T10:46:59.518000Z
2026-02-23T16:53:21.055000Z
Lec.
Ниже представлены графики количества экземпляров для удаленных (рис. 11) и оставленных классов (рис. 12)
Ниже представлены графики количества экземпляров для удаленных (рис. 11) и оставленных классов (рис. 12).
false
true
true
897
2026-02-23T10:46:57.873000Z
2026-02-23T13:24:36.101000Z
Lec.
После удаления 207 классов ГРНТИ-1 в обучающей выборке осталось 279659 текстов, распределенных по 246-классам ГРНТИ-1
После удаления 207 классов ГРНТИ-1 в обучающей выборке осталось 279659 текстов, распределенных по 246 классам ГРНТИ-1
false
true
true
896
2026-02-23T10:46:56.021000Z
2026-02-23T10:46:56.021000Z
Lec.
Для решения задачи мультиклассификации для 2-го уровня ГРНТИ был составлен тренировочный датасет:. удалены экземпляры 207 классов ГРНТИ 2-ого уровня, которые имеют < 300 текстов;. удалены экземпляры датасета, текст для которых имеет < 10 символов
false
true
false
895
2026-02-23T10:46:54.444000Z
2026-02-23T13:46:29.316000Z
Lec.
График зависимости f1 от threshold на тестовом датасете при обучении с методом LORA
График зависимости f1 от threshold на тестовом датасете при обучении методом LORA.
false
true
true
894
2026-02-23T10:46:52.811000Z
2026-02-23T18:10:07.236000Z
Lec.
График зависимости f1 от threshold на тестовом датасете при обучении только слоя для классификации
График зависимости f1 от threshold на тестовом датасете при обучении только слоя для классификации
false
true
true
893
2026-02-23T10:46:50.682000Z
2026-02-23T10:46:50.682000Z
Lec.
Графики для результатов тестирования при обучении только слоя классификации (рис. 9) и обучении с методом LoRA (рис. 10) представлены ниже
false
true
false
892
2026-02-23T10:46:48.645000Z
2026-02-23T10:46:48.645000Z
Lec.
Обучение с методом LoRA. 0.45. 0,79. 0,802. 0,8
false
false
false
891
2026-02-23T10:46:46.974000Z
2026-02-23T10:46:46.974000Z
Lec.
Обучение слоя для классификации. 0,35. 0,667. 0,71. 0,705
false
false
false
890
2026-02-23T10:46:45.226000Z
2026-02-23T10:46:45.226000Z
Lec.
Таблица 3 — Усредненные метрики для обучения только слоя классификации и только с методом LoRA
false
false
false
889
2026-02-23T10:46:43.719000Z
2026-02-23T10:46:43.719000Z
Lec.
Ниже представлена таблица с результатами для метрик (таб. 3)
false
true
false
888
2026-02-23T10:46:42.230000Z
2026-02-23T10:46:42.230000Z
Lec.
При обучении использовались тренировочные и тестовые данные 1-го датасета, обучение происходило в течение 8 эпох
false
false
false
887
2026-02-23T10:46:40.190000Z
2026-02-23T10:46:40.190000Z
Lec.
Для решения задачи классификации 1-го уровня ГРНТИ моделью BERT были предложены два способа: использование метода PEFT LoRA и обучение только слоя классификации
false
true
false
886
2026-02-23T10:46:38.561000Z
2026-02-23T16:38:45.793000Z
Lec.
График зависимости f1 от threshold на тестовом датасете для классификации при добавлении расшифровок рядом с сокращениями
График зависимости f1 от threshold на тестовом датасете для классификации при добавлении расшифровок рядом с сокращениями.
false
true
true
885
2026-02-23T10:46:36.833000Z
2026-02-23T10:46:36.833000Z
Lec.
График зависимости f1 от threshold на тестовом датасете для классификации при замене сокращений на их расшифровки
false
true
false
884
2026-02-23T10:46:35.104000Z
2026-02-23T17:08:12.555000Z
Lec.
График зависимости f1 от threshold на тестовом датасете для классификации без использования словаря сокращений
График зависимости f1 от threshold на тестовом датасете для классификации без использования словаря сокращений.
false
true
true
883
2026-02-23T10:46:33.243000Z
2026-02-23T13:33:29.655000Z
Lec.
Графики для результатов тестирования моделей, обученных на 1-м, 2-м, 3-м датасете, представлены ниже (рис. 6, 7, 8)
Графики результатов тестирования моделей, обученных на 1-м, 2-м и 3-м датасетах, представлены ниже (рис. 6, 7 и 8).
false
true
true
882
2026-02-23T10:46:31.582000Z
2026-02-23T10:46:31.582000Z
Lec.
Расшифровки рядом с сокращениями. 0.5. 0,82. 0,839. 0,838
false
false
false
881
2026-02-23T10:46:29.761000Z
2026-02-23T10:46:29.761000Z
Lec.
Замена сокращений расшифровками. 0.5. 0,822. 0,84. 0,838
false
false
false
880
2026-02-23T10:46:28.052000Z
2026-02-23T10:46:28.052000Z
Lec.
Без словаря сокращений. 0.45. 0,823. 0,84. 0,839
false
false
false
879
2026-02-23T10:46:26.155000Z
2026-02-23T10:46:26.155000Z
Lec.
Лучший threshold. f1_macro. f1_micro. f1_weighted
true
false
false
878
2026-02-23T10:46:24.001000Z
2026-02-23T15:40:39.994000Z
Lec.
Использование словаря сокращений
Используя словарь сокращений.
false
true
true
877
2026-02-23T10:46:22.108000Z
2026-02-23T10:46:22.108000Z
Lec.
Таблица 2 — Усредненные метрики для разных вариантов работы со словарем сокращений
false
true
false
876
2026-02-23T10:46:20.219000Z
2026-02-23T13:46:10.927000Z
Lec.
Таблица для сравнения усредненных метрик f1 для различных вариантов работы со словарем сокращений представлена ниже (таб. 2)
Таблица для сравнения усредненных метрик f1 различных вариантов работы со словарем сокращений представлена ниже (таб. 2).
false
true
true
875
2026-02-23T10:46:18.653000Z
2026-02-23T10:46:18.653000Z
Lec.
При обучении на 1-м, 2-м, 3-м датасете в течение 16 эпох были получены лучшие результаты по метрике f1-score
false
true
false
874
2026-02-23T10:46:17.021000Z
2026-02-23T17:39:44.114000Z
Lec.
Для 3-го и 1-го датасета данные совпадают, но рядом со всеми сокращениями в текст добавлены их расшифровки
Для 3-го и 1-го датасета данные совпадают, но к каждому сокращению добавлены их расшифровки.
false
true
true
873
2026-02-23T10:46:15.498000Z
2026-02-23T10:46:15.498000Z
Lec.
Данные для 2-го и 1-го датасета совпадают, но все сокращения заменены на их расшифровки
true
true
false
872
2026-02-23T10:46:13.643000Z
2026-02-23T13:47:01.281000Z
Lec.
Применение к текстам токенизатора “DeepPavlov/rubert-base-cased” c понижением регистра букв для получения следующей информации:. input_ids — массив чисел, каждое из которых соответствует одному токену;. attention_mask — массив нулей и единиц, который указывает модели, какие токены следует учитывать, а какие игнорировать;. token_type_ids — массив, используется в моделях, в которые подаются несколько последовательностей для их разделения
Применение к текстам токенизатора «DeepPavlov/rubert-base-cased» с понижением регистра букв для получения следующей информации: input_ids — массив чисел, каждое из которых соответствует одному токену. attention_mask — массив нулей и единиц, который указывает модели, какие токены следует учитывать, а какие игнорировать. token_type_ids — массив, используемый в моделях, в которые подаются несколько последовательностей для их разделения.
false
true
true
871
2026-02-23T10:46:11.029000Z
2026-02-23T13:41:55.283000Z
Lec.
Кодирование классов;
Кодировка классов;
false
true
true
870
2026-02-23T10:46:09.284000Z
2026-02-23T17:07:31.409000Z
Lec.
Разделение названий, текстов и ключевых слов специальными символами для каждой статьи (“SEP”);
Разделение названий, текстов и ключевых слов специальными символами для каждой статьи («SEP»);
false
true
true
869
2026-02-23T10:46:07.675000Z
2026-02-23T10:46:07.675000Z
Lec.
После удаления статей из датасета выполняются следующие действия:
false
true
false
868
2026-02-23T10:46:04.269000Z
2026-02-23T10:46:04.269000Z
Lec.
Количество оставшихся текстов по рубрикам 1-го уровня ГРНТИ
false
true
false
867
2026-02-23T10:46:02.764000Z
2026-02-23T10:46:02.764000Z
Lec.
Количество удаляемых текстов. 1-й уровень ГРНТИ
false
true
false
866
2026-02-23T10:46:01.272000Z
2026-02-23T10:46:01.272000Z
Lec.
После удаления 11 классов ГРНТИ-1 в обучающей выборке осталось 290794 текстов, распределенных по 36 классам ГРНТИ-1
false
true
false
865
2026-02-23T10:45:59.712000Z
2026-02-23T13:40:05.379000Z
Lec.
Ниже представлены графики количества экземпляров для удаленных (рис. 4) и оставленных классов (рис. 5)
Ниже представлено два графика: количество экземпляров для удаленных (рис. 4) и оставленных классов (рис. 5)
false
true
true
864
2026-02-23T10:45:58.065000Z
2026-02-23T16:20:48.475000Z
Lec.
В тестовом датасете находится 166183 текстов, распределенных по классам ГРНТИ 1-го, 2-го и 3-го уровней
В тестовом датасете находится 166183 количества текстов, распределенных по классам ГРНТИ 1-го, 2-го и 3-го уровней.
false
true
true
863
2026-02-23T10:45:56.293000Z
2026-02-23T15:53:21.255000Z
Lec.
При составлении тестового датасета не удалялись статьи с рубриками ГРНТИ, которые отсутствуют в тренировочном датасете, что позволило корректно оценивать качество работы системы классификации
При составлении тестового датасета не удалялись статьи с рубриками ГРНТИ, которые отсутствуют в тренировочном наборе данных, что позволило корректно оценивать качество работы системы классификации
false
true
true
862
2026-02-23T10:45:54.709000Z
2026-02-23T10:45:54.709000Z
Lec.
Ниже описан процесс обработки данных для дальнейшего обучения:. 1) Для каждой статьи из тренировочного датасета кодируются рубрики ГРНТИ 1-ого уровня числами от 0 до M-1, где M— число уникальных рубрик 2-ого уровня в тренировочных данных, сохраняем словарь, где ключи: рубрики ГРНТИ 2-ого уровня, а значения: кодировки рубрик. 2) Для каждой статьи из тренировочного датасета соединяем в одну строку через «[SEP]» название, аннотацию, ключевые слова, затем текст кодируется (применяется кодировщик BERT). 3) Из датасета удалены 11 классов ГРНТИ 1-ого уровня с наименьшим количеством экземпляров (< 600 текстов в рубрике);. 4) Удалены экземпляры датасета, текст для которых имеет < 10 символов
false
false
false
861
2026-02-23T10:45:52.651000Z
2026-02-23T10:45:52.651000Z
Lec.
Для составления 1-го тренировочного датасета не использовался словарь сокращений
false
true
false
860
2026-02-23T10:45:50.804000Z
2026-02-23T13:33:55.586000Z
Lec.
Для проверки данного гипотезу было составлено 3 обучающих и тестовых датасета
Для проверки данной гипотезы было составлено 3 обучающих и тестовых датасета
false
true
true
859
2026-02-23T10:45:48.969000Z
2026-02-23T13:40:15.572000Z
Lec.
Было сделано предположение, что использование словаря сокращений ВИНИТИ РАН при подготовке текстов для классификации оказывает позитивное влияние на качество предсказаний
Было сделано предположение, что использование словаря сокращений ВИНИТИ РАН при подготовке текстов для классификации оказывает положительное влияние на качество предсказаний.
false
true
true
858
2026-02-23T10:45:47.158000Z
2026-02-23T15:52:31.147000Z
Lec.
В текстах аннотаций научных статей встречаются аббревиатуры и сокращения
В текстах аннотаций научных статей встречаются аббревиатуры и сокращения
false
true
true