id
int64
18
18.8k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 14:51:09
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 14:51:09
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
8,857
2026-02-24T09:08:21.403000Z
2026-02-24T09:08:21.403000Z
Lec.
Техническая реализация:
false
true
false
8,856
2026-02-24T09:08:16.662000Z
2026-02-24T09:08:16.662000Z
Lec.
Требования к формату ответа
false
true
false
8,855
2026-02-24T09:08:13.538000Z
2026-02-24T09:08:13.538000Z
Lec.
Полный перечень возможных рубрик;
false
true
false
8,854
2026-02-24T09:08:12.015000Z
2026-02-24T09:08:12.015000Z
Lec.
Четкую инструкцию по выполнению классификации;
false
true
false
8,853
2026-02-24T09:08:10.490000Z
2026-02-24T09:08:10.490000Z
Lec.
Конструирование специализированных промптов, содержащих:
false
true
false
8,852
2026-02-24T09:08:08.603000Z
2026-02-24T09:08:08.603000Z
Lec.
Реализация решения включает следующие этапы:
false
true
false
8,851
2026-02-24T09:08:06.341000Z
2026-02-24T09:08:06.341000Z
Lec.
Особенностью подхода является использование заранее определенного словаря тематических рубрик в качестве набора целевых классов, что исключает необходимость этапа обучения модели на размеченных данных
false
true
false
8,850
2026-02-24T09:08:04.765000Z
2026-02-24T09:08:04.765000Z
Lec.
В рамках данного исследования применена методика Zero-Shot Learning для решения задачи многометочной классификации научных текстов
false
true
false
8,849
2026-02-24T09:08:02.999000Z
2026-02-24T09:08:02.999000Z
Lec.
Zero-Shot Learning (ZSL) представляет собой современный подход в области машинного обучения, позволяющий решать задачи классификации без необходимости предварительного обучения модели на размеченных данных для целевых классов [25]
false
true
false
8,848
2026-02-24T09:08:01.144000Z
2026-02-24T09:08:01.144000Z
Lec.
Следует отметить, что рассмотренные исследования либо ограничиваются первым уровнем ГРНТИ, либо фокусируются на системе УДК, не предлагая завершенного решения для автоматической многоуровневой классификации научных публикаций
false
true
false
8,847
2026-02-24T09:07:59.356000Z
2026-02-24T09:07:59.356000Z
Lec.
Сравнительный анализ показал преимущество модели E5 [24] с результатом 0.47 по F1-мере при работе с кодами УДК для разных уровней (от 2 до 16 уровней детализации)
false
true
false
8,846
2026-02-24T09:07:57.568000Z
2026-02-24T09:07:57.568000Z
Lec.
Авторами разработаны специализированные оценочные показатели, учитывающие иерархическую природу классификации: точность иерархической категоризации и точность иерархических рекомендаций
false
true
false
8,845
2026-02-24T09:07:55.793000Z
2026-02-24T09:07:55.793000Z
Lec.
В научной публикации [22] рассматриваются алгоритмы категоризации по системе УДК [23]
false
true
false
8,844
2026-02-24T09:07:54.001000Z
2026-02-24T09:07:54.001000Z
Lec.
В рамках эксперимента с 15 категориями первого уровня ГРНТИ был получен показатель F1-меры 0.865 благодаря использованию современных нейросетевых архитектур, включая ruBERT разработки МФТИ [21]
false
true
false
8,843
2026-02-24T09:07:52.170000Z
2026-02-24T09:07:52.170000Z
Lec.
Другой подход [20] сконцентрирован на анализе ключевых терминологических единиц научных статей
false
true
false
8,842
2026-02-24T09:07:50.515000Z
2026-02-24T09:07:50.515000Z
Lec.
Применение традиционных алгоритмов машинного обучения и базовых нейросетевых архитектур позволило достичь показателя F1-меры 0.67, однако работа ограничивалась анализом только верхнего уровня таксономии ГРНТИ
false
true
false
8,841
2026-02-24T09:07:48.609000Z
2026-02-24T09:07:48.609000Z
Lec.
В исследовательской работе [19] предложен метод классификации, основанный на объединении метаданных публикаций (заголовок, аннотация и ключевые термины)
false
true
false
8,840
2026-02-24T09:07:46.825000Z
2026-02-24T09:07:46.825000Z
Lec.
Однако в научных публикациях можно найти отдельные разработки, направленные на решение отдельных аспектов данной проблемы
false
true
false
8,839
2026-02-24T09:07:45.290000Z
2026-02-24T09:07:45.290000Z
Lec.
Анализ существующих подходов к автоматической категоризации научных текстов на русском языке в соответствии с иерархией ГРНТИ показывает отсутствие комплексных системных решений
false
true
false
8,838
2026-02-24T09:07:43.720000Z
2026-02-24T09:07:43.720000Z
Lec.
Возможности: Способность решать широкий спектр лингвистических задач, такие как обобщение, перевод, классификация документов и диалоги с пользователями
false
true
false
8,837
2026-02-24T09:07:42.066000Z
2026-02-24T09:07:42.066000Z
Lec.
Специализация: Основное предназначение — решение задач анализа и генерации текстов на русском языке
false
true
false
8,836
2026-02-24T09:07:39.613000Z
2026-02-24T09:07:39.613000Z
Lec.
Архитектура: Transformer-based архитектура с применением механизмов внимания (self-attention)
false
true
false
8,835
2026-02-24T09:07:37.868000Z
2026-02-24T09:07:37.868000Z
Lec.
Модель обладает высокой точностью понимания русского языка и эффективна в решении широкого спектра задач: обработка текстов, генерация содержательных ответов, обучение пользователей, работа с числами и аналитика данных
false
true
false
8,834
2026-02-24T09:07:35.896000Z
2026-02-24T09:07:35.896000Z
Lec.
GigaChat [18] — русскоязычная нейронная сеть, созданная компанией Сбер, специализирующаяся на обработке естественного языка
false
true
false
8,833
2026-02-24T09:07:34.122000Z
2026-02-24T09:07:34.122000Z
Lec.
Особенности: Возможность обработки мультимодальных запросов одновременно, гибкость настройки под конкретные задачи
false
true
false
8,832
2026-02-24T09:07:32.341000Z
2026-02-24T09:07:32.341000Z
Lec.
Языки: Поддерживает большинство мировых языков, включая русский
false
true
false
8,831
2026-02-24T09:07:30.809000Z
2026-02-24T09:07:30.809000Z
Lec.
Архитектура: Трансформеры, использующие внимание (attention mechanism)
false
true
false
8,830
2026-02-24T09:07:29.073000Z
2026-02-24T09:07:29.073000Z
Lec.
Данная модель способна обрабатывать различные типы данных (текстовые, визуальные), демонстрируя высокие результаты в генерации текста, понимании естественного языка, классификации изображений и многозадачных сценариях
false
true
false
8,829
2026-02-24T09:07:27.299000Z
2026-02-24T09:07:27.299000Z
Lec.
Mistral Large [17]— большая языковая модель, разработанная канадской компанией Mistral AI
false
true
false
8,828
2026-02-24T09:07:25.399000Z
2026-02-24T09:07:25.399000Z
Lec.
Наряду с моделью BERT активно развиваются и другие трансформерные архитектуры, среди которых выделяются Mistral Large и GigaChat
false
true
false
8,827
2026-02-24T09:07:23.590000Z
2026-02-24T09:07:23.590000Z
Lec.
Исследования, проводимые ранее, подтверждают высокую эффективность BERT для решения задач научной классификации [16]
false
true
false
8,826
2026-02-24T09:07:21.748000Z
2026-02-24T09:07:21.748000Z
Lec.
Среди лидирующих по популярности моделей данной архитектуры следует выделить BERT (Bidirectional Encoder Representations from Transformers) [15]
false
true
false
8,825
2026-02-24T09:07:19.998000Z
2026-02-24T09:07:19.998000Z
Lec.
Трансформерные архитектуры демонстрируют исключительную эффективность при решении задач текстовой классификации, что обусловлено их способностью анализировать сложные семантические связи и долгосрочные зависимости между языковыми единицами в тексте [14]
false
true
false
8,824
2026-02-24T09:07:18.052000Z
2026-02-24T09:07:18.052000Z
Lec.
Рисунок 2 – Архитектура transformer [13]
false
true
false
8,823
2026-02-24T09:07:16.312000Z
2026-02-24T09:07:16.312000Z
Lec.
Также в трансформер входят следующие компоненты [13]:
false
true
false
8,822
2026-02-24T09:07:14.817000Z
2026-02-24T09:07:14.817000Z
Lec.
В последнее десятилетие в области NLP (Natural Language Processing) получили распространение модели на основе архитектуры трансформер [13]
false
true
false
8,821
2026-02-24T09:07:13.074000Z
2026-02-24T09:07:13.074000Z
Lec.
Другое исследование [12] оценивало эффективность шести алгоритмов машинного обучения и алгоритма сопоставления строк на основе характеристик десятичной классификации Дьюи (DDC)
false
true
false
8,820
2026-02-24T09:07:11.221000Z
2026-02-24T09:07:11.221000Z
Lec.
Многослойный персептрон (MLP) [11]
false
true
false
8,819
2026-02-24T09:07:09.653000Z
2026-02-24T09:07:09.653000Z
Lec.
Метод k-ближайших соседей (k-NN) [10];
false
true
false
8,818
2026-02-24T09:07:08.046000Z
2026-02-24T09:07:08.046000Z
Lec.
Метод опорных векторов (SVM) [9];
false
true
false
8,817
2026-02-24T09:07:06.053000Z
2026-02-24T09:07:06.053000Z
Lec.
Наивный байесовский классификатор (NB) [8];
false
true
false
8,816
2026-02-24T09:07:04.311000Z
2026-02-24T09:07:04.311000Z
Lec.
В работе [7] проведено сравнение эффективности различных алгоритмов обучения с учителем для классификации по рубрикам УДК:
false
true
false
8,815
2026-02-24T09:07:02.556000Z
2026-02-24T09:07:02.556000Z
Lec.
В частности, полносвязные нейронные сети использовались для автоматической классификации статей по рубрикам универсального десятичного классификатора (УДК) [4—6]
false
true
false
8,814
2026-02-24T09:07:00.793000Z
2026-02-24T09:07:00.793000Z
Lec.
С развитием вычислительных технологий в классификации стали применяться традиционные алгоритмы, включая логистическую регрессию [3]
false
true
false
8,813
2026-02-24T09:06:58.837000Z
2026-02-24T09:06:58.837000Z
Lec.
Разработка автоматизированных систем научной классификации ведется на протяжении длительного времени [2]
false
true
false
8,812
2026-02-24T09:06:57.080000Z
2026-02-24T09:06:57.080000Z
Lec.
Рисунок 1 – Распределение кодов ГРНТИ первого уровня
false
true
false
8,811
2026-02-24T09:06:55.574000Z
2026-02-24T09:06:55.574000Z
Lec.
Несбалансированное распределение данных способствует систематической недооценке моделями редко встречающихся классов, снижая общую эффективность классификации [1]
false
true
false
8,810
2026-02-24T09:06:54.021000Z
2026-02-24T09:06:54.021000Z
Lec.
В результате анализ распределения данных для первого уровня ГРНТИ была выявлена несбалансированность (рис. 1)
false
true
false
8,809
2026-02-24T09:06:52.116000Z
2026-02-24T09:06:52.116000Z
Lec.
Таблица 1 – Распределение рубрик ГРНТИ
false
true
false
8,808
2026-02-24T09:06:50.586000Z
2026-02-24T09:06:50.586000Z
Lec.
Для обеспечения кроссплатформенной совместимости и упрощения развертывания backend-части приложения используется Docker-контейнеризация
false
true
false
8,807
2026-02-24T09:06:49.040000Z
2026-02-24T09:06:49.040000Z
Lec.
В перспективе планируется его развертывание на сервере ВИНИТИ РАН
false
true
false
8,806
2026-02-24T09:06:47.358000Z
2026-02-24T09:06:47.358000Z
Lec.
Разработанное веб-приложение успешно запущено на сервере лаборатории САПР
false
true
false
8,805
2026-02-24T09:06:45.597000Z
2026-02-24T09:06:45.597000Z
Lec.
Успешным тестированием реализованного веб-интерфейса и консольного приложения на примерах текстов для классификации
false
true
false
8,804
2026-02-24T09:06:43.834000Z
2026-02-24T09:06:43.834000Z
Lec.
Достоверность полученных результатов подтверждается результатами проверки качества предсказаний рубрик ГРНТИ для моделей 1-го, 2-го и 3-го уровня на тестовых и валидационных датасетах
false
true
false
8,803
2026-02-24T09:06:42.066000Z
2026-02-24T09:06:42.066000Z
Lec.
Разработанные модули подготовки данных для классификации, обучения, получения предсказаний и формирования отчетов реализуют универсальный подход для работы с моделями из Hugging Face
false
true
false
8,802
2026-02-24T09:06:40.304000Z
2026-02-24T09:06:40.304000Z
Lec.
Бесплатный доступ к использованию системы;
false
true
false
8,801
2026-02-24T09:06:38.658000Z
2026-02-24T09:06:38.658000Z
Lec.
Разработанная система классификации позволяет получать предсказания для всех трех уровней ГРНТИ;
false
true
false
8,800
2026-02-24T09:06:37.021000Z
2026-02-24T09:06:37.021000Z
Lec.
Таким образом, все запланированные функциональные требования выполнены в полном объеме
false
true
false
8,799
2026-02-24T09:06:35.282000Z
2026-02-24T09:06:35.282000Z
Lec.
Созданы модули для:. подготовки данных для классификации;. обучения LLM;. получения предсказаний;. формирования отчетов по результатам работы
false
true
false
8,798
2026-02-24T09:06:33.440000Z
2026-02-24T09:06:33.440000Z
Lec.
Также создано консольное приложение, которое позволяет производить классификацию научных текстов
false
true
false
8,797
2026-02-24T09:06:31.190000Z
2026-02-24T09:06:31.190000Z
Lec.
Разработанный веб-интерфейс успешно запущен на сервере и предоставляет пользователям возможность загружать тексты для классификации по рубрикам ГРНТИ
false
true
false
8,796
2026-02-24T09:06:29.488000Z
2026-02-24T09:06:29.488000Z
Lec.
Разработано консольное приложение, позволяющее определять рубрики ГРНТИ как для отдельных текстовых файлов, так и для массива данных, представленных в CSV-таблице
false
true
false
8,795
2026-02-24T09:06:27.959000Z
2026-02-24T09:06:27.959000Z
Lec.
Создан веб-интерфейс, развернутый на сервере, который позволяет пользователям получать предсказания категорий ГРНТИ (1-го, 2-го и 3-го уровня) для загруженных текстовых файлов
false
true
false
8,794
2026-02-24T09:06:26.193000Z
2026-02-24T09:06:26.193000Z
Lec.
Разработанная система классификации рубрик научных работ по рубрикам ГРНТИ
false
true
false
8,793
2026-02-24T09:06:24.252000Z
2026-02-24T09:06:24.252000Z
Lec.
Планируемый результат:
false
true
false
8,792
2026-02-24T09:06:22.847000Z
2026-02-24T09:06:22.847000Z
Lec.
Разработать консольное приложение и графический интерфейс приложения
false
true
false
8,791
2026-02-24T09:06:20.967000Z
2026-02-24T09:06:20.967000Z
Lec.
Провести сравнительный анализ полученных и существующих моделей;
false
true
false
8,790
2026-02-24T09:06:18.984000Z
2026-02-24T09:06:18.984000Z
Lec.
Разработать модуль формирования отчетов с графиками для значений метрик качества и графиками изменения функции потерь при обучении;
false
true
false
8,789
2026-02-24T09:06:17.467000Z
2026-02-24T09:06:17.467000Z
Lec.
Реализовать модуль обучения больших языковых моделей для multilabel классификации по рубрикам ГРНТИ и использовать его для обучения различных видов Больших Языковых Моделей (БЯМ, LLM);
false
true
false
8,788
2026-02-24T09:06:14.781000Z
2026-02-24T09:06:14.781000Z
Lec.
Разработать модуль предобработки данных при их передаче в формате csv для консольного приложения и в формате txt для графического интерфейса пользователя;
false
true
false
8,787
2026-02-24T09:06:13.220000Z
2026-02-24T09:06:13.220000Z
Lec.
Для получения предсказаний требуется реализовать эффективную систему классификации с использованием моделей машинного обучения, обученных на датасете научных работ предоставленном ВИНИТИ РАН
false
true
false
8,786
2026-02-24T09:06:11.437000Z
2026-02-24T09:06:11.437000Z
Lec.
Целью работы является разработка программного обеспечения, которое позволит загружать названия, аннотации, ключевые слова научных статей и получать наиболее вероятные рубрики ГРНТИ для каждой статьи
false
true
false
8,785
2026-02-24T09:06:09.698000Z
2026-02-24T09:06:09.698000Z
Lec.
Автоматизация поиска подходящих рубрик ГРНТИ поможет авторам научных работ существенно сократить время, увеличить точность, объективность решения задачи классификации, уменьшив влияние человеческого фактора
false
true
false
8,784
2026-02-24T09:06:07.913000Z
2026-02-24T09:06:07.913000Z
Lec.
Поскольку количество рубрик велико, поиск нужной может занимать много времени
false
true
false
8,783
2026-02-24T09:06:05.927000Z
2026-02-24T09:06:05.927000Z
Lec.
Этого достаточно для того, чтобы описать область знаний, к которой относится статья
false
true
false
8,782
2026-02-24T09:06:04.147000Z
2026-02-24T09:06:04.147000Z
Lec.
Обычно используют 3 уровня классификатора
false
true
false
8,781
2026-02-24T09:06:02.538000Z
2026-02-24T09:06:02.538000Z
Lec.
Государственного рубрикатора научно-технической информации (далее –ГРНТИ)
false
true
false
8,780
2026-02-24T09:06:00.795000Z
2026-02-24T09:06:00.795000Z
Lec.
Каждая научная публикация должна иметь тематический код
false
true
false
8,779
2026-02-24T09:05:59.252000Z
2026-02-24T09:05:59.252000Z
Lec.
Система основана на использовании современных нейронных сетей, и состоит из модулей предобработки текстов статей, обучения моделей нейронных сетей, классификации публикаций и генерации статистических отчетов по заданным критериям
false
true
false
8,778
2026-02-24T09:05:57.252000Z
2026-02-24T09:05:57.252000Z
Lec.
Для обучения классификатора использовался датасет из 295000 текстов, предоставленных ВИНИТИ РАН
false
true
false
8,777
2026-02-24T09:05:55.417000Z
2026-02-24T09:05:55.417000Z
Lec.
Система позволила оптимизировать время и трудозатраты сотрудников, повысила объективность и качество рубрикации, а также снизила влияние человеческого фактора при назначении рубрик новым документам
false
true
false
8,776
2026-02-24T09:05:53.648000Z
2026-02-24T09:05:53.648000Z
Lec.
Были рассмотрены и исследованы алгоритмы машинного обучения, решающие задачи классификации текстов
false
true
false
8,775
2026-02-24T09:05:51.900000Z
2026-02-24T09:05:51.900000Z
Lec.
В ходе реализации проекта создано специальное программное обеспечение, предназначенное для классификации текстов по уровням ГРНТИ
false
true
false
8,774
2026-02-24T09:05:50.142000Z
2026-02-24T09:05:50.142000Z
Lec.
Список литературы 55
false
false
false
8,773
2026-02-24T09:05:48.208000Z
2026-02-24T09:05:48.208000Z
Lec.
Примеры работы ПО 46. 10.1 Веб интерфейс 46. 10.2 CLI интерфейс 53. 11
false
false
false
8,772
2026-02-24T09:05:46.666000Z
2026-02-24T09:05:46.666000Z
Lec.
Экономическая эффективность 44. 9.Перечень основных технических и научных результатов 44. 9.1 Научные результаты 44. 9.2 Технические результаты 45. 10
false
false
false
8,771
2026-02-24T09:05:44.881000Z
2026-02-24T09:05:44.881000Z
Lec.
Методика создания веб интерфейса 40. 7.5.1 Методика реализации бэкенда 40. 7.5.2 Методика реализации фронтеда 42. 8
false
false
false
8,770
2026-02-24T09:05:43.117000Z
2026-02-24T09:05:43.117000Z
Lec.
Методика создания консольной версии ПО 39. 7.5
false
true
false
8,769
2026-02-24T09:05:41.447000Z
2026-02-24T09:05:41.447000Z
Lec.
Методика создания модуля формирования отчетов для оценки результатов предсказания 38. 7.4
false
true
false
8,768
2026-02-24T09:05:39.379000Z
2026-02-24T09:05:39.379000Z
Lec.
Методика создания модуля обучения моделей 37. 7.3
false
true
false
8,767
2026-02-24T09:05:37.467000Z
2026-02-24T09:05:37.467000Z
Lec.
Методика создания модуля предобработки данных 36. 7.2
false
true
false
8,766
2026-02-24T09:05:35.559000Z
2026-02-24T09:05:35.559000Z
Lec.
Описание разработанной системы 36. 7.1
false
true
false
8,765
2026-02-24T09:05:33.843000Z
2026-02-24T09:05:33.843000Z
Lec.
Информация о составе проектной команды 36. 7
false
true
false
8,764
2026-02-24T09:05:32.176000Z
2026-02-24T09:05:32.176000Z
Lec.
Панов Елисей Николаевич 35. 6
true
true
false
8,763
2026-02-24T09:05:30.672000Z
2026-02-24T09:05:30.672000Z
Lec.
Еценкова Татьяна Владимировна 35. 5.4
true
false
false
8,762
2026-02-24T09:05:29.047000Z
2026-02-24T09:05:29.047000Z
Lec.
Горбунцов Александр Алексеевич 35. 5.3
true
true
false
8,761
2026-02-24T09:05:27.456000Z
2026-02-24T09:05:27.456000Z
Lec.
Аношин Виктор Иванович 34. 5.2
true
false
false
8,760
2026-02-24T09:05:25.891000Z
2026-02-24T09:05:25.891000Z
Lec.
Ход работы 34. 5.1
false
true
false
8,759
2026-02-24T09:05:24.328000Z
2026-02-24T09:05:24.328000Z
Lec.
Методика и результаты испытаний 13. 4.1 Эксперимент по использованию метода zero-shot learning для решения задачи multilabel классификации 13. 4.1.1 Zero-shot learning 13. 4.1.2 Подготовка данных 14. 4.1.3 Результаты 15. 4.2 Эксперименты по применению моделей машинного обучения с учителем 15. 4.3 Эксперимент по использ...
false
false
false
8,758
2026-02-24T09:05:17.524000Z
2026-02-24T09:05:17.524000Z
Lec.
Существующие подходы для решения задачи классификации научных работ 12. 4
false
false
false