id
int64
18
21.1k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 16:54:39
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 16:54:39
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
8,907
2026-02-24T09:09:49.241000Z
2026-02-24T09:09:49.241000Z
Lec.
Модель. rubert-base-cased
false
true
false
8,906
2026-02-24T09:09:47.284000Z
2026-02-24T09:09:47.284000Z
Lec.
Семейство. f1_weighted
false
true
false
8,905
2026-02-24T09:09:45.612000Z
2026-02-24T09:09:45.612000Z
Lec.
Таблица 3 – Таблица результатов работы моделей для получения рубрик ГРНТИ
false
true
false
8,904
2026-02-24T09:09:44.022000Z
2026-02-24T09:09:44.022000Z
Lec.
Ниже представлены результаты исследования (таб. 3)
false
true
false
8,903
2026-02-24T09:09:42.304000Z
2026-02-24T09:09:42.304000Z
Lec.
Также число эпох было ограничено 8
false
true
false
8,902
2026-02-24T09:09:40.808000Z
2026-02-24T09:09:40.808000Z
Lec.
В итоге число записей может незначительно отличаться от 7000
false
true
false
8,901
2026-02-24T09:09:39.239000Z
2026-02-24T09:09:39.239000Z
Lec.
При этом некоторые категории встречались в связке с другими, поэтому пришлось особо редкие классы защищать от удаления
false
true
false
8,900
2026-02-24T09:09:37.482000Z
2026-02-24T09:09:37.482000Z
Lec.
Для сравнительного анализа моделей было осуществлено сокращение каждой категории первого уровня ГРНТИ до 7000 записей
false
true
false
8,899
2026-02-24T09:09:35.924000Z
2026-02-24T09:09:35.924000Z
Lec.
Рисунок 6 – Качество работы моделей на бенчмарке MTEB
false
true
false
8,898
2026-02-24T09:09:34.213000Z
2026-02-24T09:09:34.213000Z
Lec.
Лучшая модель бенчмарка —FRIDA, имеющая 0.8 млрд параметров, не помещается в видеокарту RTX 4060
false
false
false
8,897
2026-02-24T09:09:32.338000Z
2026-02-24T09:09:32.338000Z
Lec.
Подавляющее большинство моделей из лучших там составляют различные варианты LLM с миллиардами параметров
false
true
false
8,896
2026-02-24T09:09:30.614000Z
2026-02-24T09:09:30.614000Z
Lec.
Также был проанализирован и русский вариант бенчмарка MTEB (рис. 6)
false
true
false
8,895
2026-02-24T09:09:28.678000Z
2026-02-24T09:09:28.678000Z
Lec.
Было решено протестировать модели из данного бенчмарка
false
true
false
8,894
2026-02-24T09:09:26.972000Z
2026-02-24T09:09:26.972000Z
Lec.
Рисунок 5 – Нагрузка моделей на бенчмарке Encodechka
false
false
false
8,893
2026-02-24T09:09:25.257000Z
2026-02-24T09:09:25.257000Z
Lec.
Эти две задачи требуют получать эмбеддинги отдельных токенов, а не целых предложений; поэтому там участвуют не все модели
false
true
false
8,892
2026-02-24T09:09:23.456000Z
2026-02-24T09:09:23.456000Z
Lec.
Распознавание именованных сущностей на датасетах factRuEval-2016 (NE1) и RuDReC (NE2)
false
true
false
8,891
2026-02-24T09:09:21.663000Z
2026-02-24T09:09:21.664000Z
Lec.
В IC классификатор обучается на русских данных, а в ICX – на английских, а тестируется в обоих случаях на русских
false
true
false
8,890
2026-02-24T09:09:20.064000Z
2026-02-24T09:09:20.064000Z
Lec.
Intent classification (IC) и ее кросс-язычная версия ICX на датасете NLU-evaluation-data, который я автоматически перевел на русский
false
true
false
8,889
2026-02-24T09:09:18.525000Z
2026-02-24T09:09:18.525000Z
Lec.
Inappropriateness identification (II) на датасете Сколтеха;
false
true
false
8,888
2026-02-24T09:09:16.768000Z
2026-02-24T09:09:16.768000Z
Lec.
Toxicity identification (TI) на датасете токсичных комментариев из OKMLCup;
false
true
false
8,887
2026-02-24T09:09:14.943000Z
2026-02-24T09:09:14.943000Z
Lec.
Sentiment analysis (SA) на данных SentiRuEval2016
false
true
false
8,886
2026-02-24T09:09:13.309000Z
2026-02-24T09:09:13.309000Z
Lec.
Natural language inference (NLI) на датасете XNLI;
false
true
false
8,885
2026-02-24T09:09:11.820000Z
2026-02-24T09:09:11.820000Z
Lec.
Paraphrase identification (PI) на основе датасета paraphraser.ru;
false
true
false
8,884
2026-02-24T09:09:10.037000Z
2026-02-24T09:09:10.037000Z
Lec.
Semantic text similarity (STS) на основе переведенного датасета STS-B;
false
true
false
8,883
2026-02-24T09:09:08.277000Z
2026-02-24T09:09:08.277000Z
Lec.
Данный бенчмарк включает в себя оценку быстродействия моделей, а также измеряет качество на задачах:
false
true
false
8,882
2026-02-24T09:09:06.479000Z
2026-02-24T09:09:06.479000Z
Lec.
Был взят бенчмарк Encodechka (рис. 5), его идея в том, чтобы понять, как хорошо разные модели превращают короткие тексты в осмысленные векторы
false
true
false
8,881
2026-02-24T09:09:04.844000Z
2026-02-24T09:09:04.844000Z
Lec.
Для выбора модели был осуществлен поиск бенчмарков для русскоязычных энкодеров текста
false
true
false
8,880
2026-02-24T09:09:03.198000Z
2026-02-24T09:09:03.198000Z
Lec.
Была выдвинута гипотеза о том, что можно найти более мощную модель, обеспечивающую более высокую точность
false
true
false
8,879
2026-02-24T09:09:01.451000Z
2026-02-24T09:09:01.451000Z
Lec.
В предыдущих версиях данной работы использовалась модель rubert-base-cased, представляющая собой вариант модели BERT, обученный на русской википедии
false
true
false
8,878
2026-02-24T09:08:59.875000Z
2026-02-24T09:08:59.875000Z
Lec.
Использование метода zero-shot learning для классификации научных работ не показало высоких значений качества предсказаний, поэтому в дальнейшем были рассмотрены альтернативные варианты обучения
false
true
false
8,877
2026-02-24T09:08:58.147000Z
2026-02-24T09:08:58.147000Z
Lec.
GigaChat. 0,2. 0,17. 0,23
false
false
false
8,876
2026-02-24T09:08:56.388000Z
2026-02-24T09:08:56.388000Z
Lec.
Mistral Large. 0,4. 0,41. 0,45
false
false
false
8,875
2026-02-24T09:08:54.650000Z
2026-02-24T09:08:54.650000Z
Lec.
Вид модели. f1_macro. f1_micro. f1_weighted
false
false
false
8,874
2026-02-24T09:08:52.442000Z
2026-02-24T09:08:52.442000Z
Lec.
Таблица 2 – Усредненные метрики для оценки качества предсказаний моделей Mistral Large и GigaChat
false
false
false
8,873
2026-02-24T09:08:50.724000Z
2026-02-24T09:08:50.724000Z
Lec.
Ниже представлена таблица с оценкой качества работы данных моделей для решения задачи многометочной классификации (табл. 2)
false
true
false
8,872
2026-02-24T09:08:48.901000Z
2026-02-24T09:08:48.901000Z
Lec.
Для получения предсказаний на тестовой выборке были использованы модели Mistral Large и GigaChat
false
true
false
8,871
2026-02-24T09:08:47.042000Z
2026-02-24T09:08:47.042000Z
Lec.
Рисунок 4 – Количество оставшихся текстов по рубрикам 1-го уровня ГРНТИ
false
true
false
8,870
2026-02-24T09:08:45.166000Z
2026-02-24T09:08:45.166000Z
Lec.
Ниже приведен график распределения количества элементов по классам для каждого датасета (рис. 4)
false
true
false
8,869
2026-02-24T09:08:43.521000Z
2026-02-24T09:08:43.521000Z
Lec.
Среди них были выбраны 100 элементов, так, чтобы в датасете содержались экземпляры каждого из оставшихся 32-х классов
false
true
false
8,868
2026-02-24T09:08:41.914000Z
2026-02-24T09:08:41.914000Z
Lec.
Для составления тестового датасета рассматривались классы ГРНТИ 1-го уровня, которые содержат не менее 800 элементов
false
true
false
8,867
2026-02-24T09:08:40.328000Z
2026-02-24T09:08:40.328000Z
Lec.
Рисунок 3 – Промт для multilabel классификации
false
true
false
8,866
2026-02-24T09:08:38.385000Z
2026-02-24T09:08:38.385000Z
Lec.
Ниже приведен пример сформированного промта для решения задачи multilabel классификации (рис. 3):
false
true
false
8,865
2026-02-24T09:08:36.620000Z
2026-02-24T09:08:36.620000Z
Lec.
Адаптивность: Возможность работы с изменяющимся набором категорий
false
true
false
8,864
2026-02-24T09:08:34.847000Z
2026-02-24T09:08:34.847000Z
Lec.
Минимизация вычислительных затрат
false
true
false
8,863
2026-02-24T09:08:33.330000Z
2026-02-24T09:08:33.330000Z
Lec.
Отсутствие необходимости в обучающей выборке;
false
true
false
8,862
2026-02-24T09:08:31.881000Z
2026-02-24T09:08:31.881000Z
Lec.
Экономия ресурсов:
false
true
false
8,861
2026-02-24T09:08:30.392000Z
2026-02-24T09:08:30.392000Z
Lec.
Основные преимущества Zero-Shot Learning для многометочной классификации:
false
true
false
8,860
2026-02-24T09:08:28.315000Z
2026-02-24T09:08:28.315000Z
Lec.
Использование результатов для оценки качества предсказаний
false
true
false
8,859
2026-02-24T09:08:26.621000Z
2026-02-24T09:08:26.621000Z
Lec.
Парсинг выходных данных;
false
true
false
8,858
2026-02-24T09:08:22.870000Z
2026-02-24T09:08:22.870000Z
Lec.
Обработка входного текста языковой моделью через API;
true
true
false
8,857
2026-02-24T09:08:21.403000Z
2026-02-24T09:08:21.403000Z
Lec.
Техническая реализация:
false
true
false
8,856
2026-02-24T09:08:16.662000Z
2026-02-24T09:08:16.662000Z
Lec.
Требования к формату ответа
false
true
false
8,855
2026-02-24T09:08:13.538000Z
2026-02-24T09:08:13.538000Z
Lec.
Полный перечень возможных рубрик;
false
true
false
8,854
2026-02-24T09:08:12.015000Z
2026-02-24T09:08:12.015000Z
Lec.
Четкую инструкцию по выполнению классификации;
false
true
false
8,853
2026-02-24T09:08:10.490000Z
2026-02-24T09:08:10.490000Z
Lec.
Конструирование специализированных промптов, содержащих:
false
true
false
8,852
2026-02-24T09:08:08.603000Z
2026-02-24T09:08:08.603000Z
Lec.
Реализация решения включает следующие этапы:
false
true
false
8,851
2026-02-24T09:08:06.341000Z
2026-02-24T09:08:06.341000Z
Lec.
Особенностью подхода является использование заранее определенного словаря тематических рубрик в качестве набора целевых классов, что исключает необходимость этапа обучения модели на размеченных данных
false
true
false
8,850
2026-02-24T09:08:04.765000Z
2026-02-24T09:08:04.765000Z
Lec.
В рамках данного исследования применена методика Zero-Shot Learning для решения задачи многометочной классификации научных текстов
false
true
false
8,849
2026-02-24T09:08:02.999000Z
2026-02-24T09:08:02.999000Z
Lec.
Zero-Shot Learning (ZSL) представляет собой современный подход в области машинного обучения, позволяющий решать задачи классификации без необходимости предварительного обучения модели на размеченных данных для целевых классов [25]
false
true
false
8,848
2026-02-24T09:08:01.144000Z
2026-02-24T09:08:01.144000Z
Lec.
Следует отметить, что рассмотренные исследования либо ограничиваются первым уровнем ГРНТИ, либо фокусируются на системе УДК, не предлагая завершенного решения для автоматической многоуровневой классификации научных публикаций
false
true
false
8,847
2026-02-24T09:07:59.356000Z
2026-02-24T09:07:59.356000Z
Lec.
Сравнительный анализ показал преимущество модели E5 [24] с результатом 0.47 по F1-мере при работе с кодами УДК для разных уровней (от 2 до 16 уровней детализации)
false
true
false
8,846
2026-02-24T09:07:57.568000Z
2026-02-24T09:07:57.568000Z
Lec.
Авторами разработаны специализированные оценочные показатели, учитывающие иерархическую природу классификации: точность иерархической категоризации и точность иерархических рекомендаций
false
true
false
8,845
2026-02-24T09:07:55.793000Z
2026-02-24T09:07:55.793000Z
Lec.
В научной публикации [22] рассматриваются алгоритмы категоризации по системе УДК [23]
false
true
false
8,844
2026-02-24T09:07:54.001000Z
2026-02-24T09:07:54.001000Z
Lec.
В рамках эксперимента с 15 категориями первого уровня ГРНТИ был получен показатель F1-меры 0.865 благодаря использованию современных нейросетевых архитектур, включая ruBERT разработки МФТИ [21]
false
true
false
8,843
2026-02-24T09:07:52.170000Z
2026-02-24T09:07:52.170000Z
Lec.
Другой подход [20] сконцентрирован на анализе ключевых терминологических единиц научных статей
false
true
false
8,842
2026-02-24T09:07:50.515000Z
2026-02-24T09:07:50.515000Z
Lec.
Применение традиционных алгоритмов машинного обучения и базовых нейросетевых архитектур позволило достичь показателя F1-меры 0.67, однако работа ограничивалась анализом только верхнего уровня таксономии ГРНТИ
false
true
false
8,841
2026-02-24T09:07:48.609000Z
2026-02-24T09:07:48.609000Z
Lec.
В исследовательской работе [19] предложен метод классификации, основанный на объединении метаданных публикаций (заголовок, аннотация и ключевые термины)
false
true
false
8,840
2026-02-24T09:07:46.825000Z
2026-02-24T09:07:46.825000Z
Lec.
Однако в научных публикациях можно найти отдельные разработки, направленные на решение отдельных аспектов данной проблемы
false
true
false
8,839
2026-02-24T09:07:45.290000Z
2026-02-24T09:07:45.290000Z
Lec.
Анализ существующих подходов к автоматической категоризации научных текстов на русском языке в соответствии с иерархией ГРНТИ показывает отсутствие комплексных системных решений
false
true
false
8,838
2026-02-24T09:07:43.720000Z
2026-02-24T09:07:43.720000Z
Lec.
Возможности: Способность решать широкий спектр лингвистических задач, такие как обобщение, перевод, классификация документов и диалоги с пользователями
false
true
false
8,837
2026-02-24T09:07:42.066000Z
2026-02-24T09:07:42.066000Z
Lec.
Специализация: Основное предназначение — решение задач анализа и генерации текстов на русском языке
false
true
false
8,836
2026-02-24T09:07:39.613000Z
2026-02-24T09:07:39.613000Z
Lec.
Архитектура: Transformer-based архитектура с применением механизмов внимания (self-attention)
false
true
false
8,835
2026-02-24T09:07:37.868000Z
2026-02-24T09:07:37.868000Z
Lec.
Модель обладает высокой точностью понимания русского языка и эффективна в решении широкого спектра задач: обработка текстов, генерация содержательных ответов, обучение пользователей, работа с числами и аналитика данных
false
true
false
8,834
2026-02-24T09:07:35.896000Z
2026-02-24T09:07:35.896000Z
Lec.
GigaChat [18] — русскоязычная нейронная сеть, созданная компанией Сбер, специализирующаяся на обработке естественного языка
false
true
false
8,833
2026-02-24T09:07:34.122000Z
2026-02-24T09:07:34.122000Z
Lec.
Особенности: Возможность обработки мультимодальных запросов одновременно, гибкость настройки под конкретные задачи
false
true
false
8,832
2026-02-24T09:07:32.341000Z
2026-02-24T09:07:32.341000Z
Lec.
Языки: Поддерживает большинство мировых языков, включая русский
false
true
false
8,831
2026-02-24T09:07:30.809000Z
2026-02-24T09:07:30.809000Z
Lec.
Архитектура: Трансформеры, использующие внимание (attention mechanism)
false
true
false
8,830
2026-02-24T09:07:29.073000Z
2026-02-24T09:07:29.073000Z
Lec.
Данная модель способна обрабатывать различные типы данных (текстовые, визуальные), демонстрируя высокие результаты в генерации текста, понимании естественного языка, классификации изображений и многозадачных сценариях
false
true
false
8,829
2026-02-24T09:07:27.299000Z
2026-02-24T09:07:27.299000Z
Lec.
Mistral Large [17]— большая языковая модель, разработанная канадской компанией Mistral AI
false
true
false
8,828
2026-02-24T09:07:25.399000Z
2026-02-24T09:07:25.399000Z
Lec.
Наряду с моделью BERT активно развиваются и другие трансформерные архитектуры, среди которых выделяются Mistral Large и GigaChat
false
true
false
8,827
2026-02-24T09:07:23.590000Z
2026-02-24T09:07:23.590000Z
Lec.
Исследования, проводимые ранее, подтверждают высокую эффективность BERT для решения задач научной классификации [16]
false
true
false
8,826
2026-02-24T09:07:21.748000Z
2026-02-24T09:07:21.748000Z
Lec.
Среди лидирующих по популярности моделей данной архитектуры следует выделить BERT (Bidirectional Encoder Representations from Transformers) [15]
false
true
false
8,825
2026-02-24T09:07:19.998000Z
2026-02-24T09:07:19.998000Z
Lec.
Трансформерные архитектуры демонстрируют исключительную эффективность при решении задач текстовой классификации, что обусловлено их способностью анализировать сложные семантические связи и долгосрочные зависимости между языковыми единицами в тексте [14]
false
true
false
8,824
2026-02-24T09:07:18.052000Z
2026-02-24T09:07:18.052000Z
Lec.
Рисунок 2 – Архитектура transformer [13]
false
true
false
8,823
2026-02-24T09:07:16.312000Z
2026-02-24T09:07:16.312000Z
Lec.
Также в трансформер входят следующие компоненты [13]:
false
true
false
8,822
2026-02-24T09:07:14.817000Z
2026-02-24T09:07:14.817000Z
Lec.
В последнее десятилетие в области NLP (Natural Language Processing) получили распространение модели на основе архитектуры трансформер [13]
false
true
false
8,821
2026-02-24T09:07:13.074000Z
2026-02-24T09:07:13.074000Z
Lec.
Другое исследование [12] оценивало эффективность шести алгоритмов машинного обучения и алгоритма сопоставления строк на основе характеристик десятичной классификации Дьюи (DDC)
false
true
false
8,820
2026-02-24T09:07:11.221000Z
2026-02-24T09:07:11.221000Z
Lec.
Многослойный персептрон (MLP) [11]
false
true
false
8,819
2026-02-24T09:07:09.653000Z
2026-02-24T09:07:09.653000Z
Lec.
Метод k-ближайших соседей (k-NN) [10];
false
true
false
8,818
2026-02-24T09:07:08.046000Z
2026-02-24T09:07:08.046000Z
Lec.
Метод опорных векторов (SVM) [9];
false
true
false
8,817
2026-02-24T09:07:06.053000Z
2026-02-24T09:07:06.053000Z
Lec.
Наивный байесовский классификатор (NB) [8];
false
true
false
8,816
2026-02-24T09:07:04.311000Z
2026-02-24T09:07:04.311000Z
Lec.
В работе [7] проведено сравнение эффективности различных алгоритмов обучения с учителем для классификации по рубрикам УДК:
false
true
false
8,815
2026-02-24T09:07:02.556000Z
2026-02-24T09:07:02.556000Z
Lec.
В частности, полносвязные нейронные сети использовались для автоматической классификации статей по рубрикам универсального десятичного классификатора (УДК) [4—6]
false
true
false
8,814
2026-02-24T09:07:00.793000Z
2026-02-24T09:07:00.793000Z
Lec.
С развитием вычислительных технологий в классификации стали применяться традиционные алгоритмы, включая логистическую регрессию [3]
false
true
false
8,813
2026-02-24T09:06:58.837000Z
2026-02-24T09:06:58.837000Z
Lec.
Разработка автоматизированных систем научной классификации ведется на протяжении длительного времени [2]
false
true
false
8,812
2026-02-24T09:06:57.080000Z
2026-02-24T09:06:57.080000Z
Lec.
Рисунок 1 – Распределение кодов ГРНТИ первого уровня
false
true
false
8,811
2026-02-24T09:06:55.574000Z
2026-02-24T09:06:55.574000Z
Lec.
Несбалансированное распределение данных способствует систематической недооценке моделями редко встречающихся классов, снижая общую эффективность классификации [1]
false
true
false
8,810
2026-02-24T09:06:54.021000Z
2026-02-24T09:06:54.021000Z
Lec.
В результате анализ распределения данных для первого уровня ГРНТИ была выявлена несбалансированность (рис. 1)
false
true
false
8,809
2026-02-24T09:06:52.116000Z
2026-02-24T09:06:52.116000Z
Lec.
Таблица 1 – Распределение рубрик ГРНТИ
false
true
false
8,808
2026-02-24T09:06:50.586000Z
2026-02-24T09:06:50.586000Z
Lec.
Для обеспечения кроссплатформенной совместимости и упрощения развертывания backend-части приложения используется Docker-контейнеризация
false
true
false