id int64 18 21.1k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 16:54:39 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 16:54:39 | doc_name stringclasses 1
value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2
classes | is_sentence bool 2
classes | is_corrected bool 2
classes |
|---|---|---|---|---|---|---|---|---|
8,907 | 2026-02-24T09:09:49.241000Z | 2026-02-24T09:09:49.241000Z | Lec. | Модель. rubert-base-cased | false | true | false | |
8,906 | 2026-02-24T09:09:47.284000Z | 2026-02-24T09:09:47.284000Z | Lec. | Семейство. f1_weighted | false | true | false | |
8,905 | 2026-02-24T09:09:45.612000Z | 2026-02-24T09:09:45.612000Z | Lec. | Таблица 3 – Таблица результатов работы моделей для получения рубрик ГРНТИ | false | true | false | |
8,904 | 2026-02-24T09:09:44.022000Z | 2026-02-24T09:09:44.022000Z | Lec. | Ниже представлены результаты исследования (таб. 3) | false | true | false | |
8,903 | 2026-02-24T09:09:42.304000Z | 2026-02-24T09:09:42.304000Z | Lec. | Также число эпох было ограничено 8 | false | true | false | |
8,902 | 2026-02-24T09:09:40.808000Z | 2026-02-24T09:09:40.808000Z | Lec. | В итоге число записей может незначительно отличаться от 7000 | false | true | false | |
8,901 | 2026-02-24T09:09:39.239000Z | 2026-02-24T09:09:39.239000Z | Lec. | При этом некоторые категории встречались в связке с другими, поэтому пришлось особо редкие классы защищать от удаления | false | true | false | |
8,900 | 2026-02-24T09:09:37.482000Z | 2026-02-24T09:09:37.482000Z | Lec. | Для сравнительного анализа моделей было осуществлено сокращение каждой категории первого уровня ГРНТИ до 7000 записей | false | true | false | |
8,899 | 2026-02-24T09:09:35.924000Z | 2026-02-24T09:09:35.924000Z | Lec. | Рисунок 6 – Качество работы моделей на бенчмарке MTEB | false | true | false | |
8,898 | 2026-02-24T09:09:34.213000Z | 2026-02-24T09:09:34.213000Z | Lec. | Лучшая модель бенчмарка —FRIDA, имеющая 0.8 млрд параметров, не помещается в видеокарту RTX 4060 | false | false | false | |
8,897 | 2026-02-24T09:09:32.338000Z | 2026-02-24T09:09:32.338000Z | Lec. | Подавляющее большинство моделей из лучших там составляют различные варианты LLM с миллиардами параметров | false | true | false | |
8,896 | 2026-02-24T09:09:30.614000Z | 2026-02-24T09:09:30.614000Z | Lec. | Также был проанализирован и русский вариант бенчмарка MTEB (рис. 6) | false | true | false | |
8,895 | 2026-02-24T09:09:28.678000Z | 2026-02-24T09:09:28.678000Z | Lec. | Было решено протестировать модели из данного бенчмарка | false | true | false | |
8,894 | 2026-02-24T09:09:26.972000Z | 2026-02-24T09:09:26.972000Z | Lec. | Рисунок 5 – Нагрузка моделей на бенчмарке Encodechka | false | false | false | |
8,893 | 2026-02-24T09:09:25.257000Z | 2026-02-24T09:09:25.257000Z | Lec. | Эти две задачи требуют получать эмбеддинги отдельных токенов, а не целых предложений; поэтому там участвуют не все модели | false | true | false | |
8,892 | 2026-02-24T09:09:23.456000Z | 2026-02-24T09:09:23.456000Z | Lec. | Распознавание именованных сущностей на датасетах factRuEval-2016 (NE1) и RuDReC (NE2) | false | true | false | |
8,891 | 2026-02-24T09:09:21.663000Z | 2026-02-24T09:09:21.664000Z | Lec. | В IC классификатор обучается на русских данных, а в ICX – на английских, а тестируется в обоих случаях на русских | false | true | false | |
8,890 | 2026-02-24T09:09:20.064000Z | 2026-02-24T09:09:20.064000Z | Lec. | Intent classification (IC) и ее кросс-язычная версия ICX на датасете NLU-evaluation-data, который я автоматически перевел на русский | false | true | false | |
8,889 | 2026-02-24T09:09:18.525000Z | 2026-02-24T09:09:18.525000Z | Lec. | Inappropriateness identification (II) на датасете Сколтеха; | false | true | false | |
8,888 | 2026-02-24T09:09:16.768000Z | 2026-02-24T09:09:16.768000Z | Lec. | Toxicity identification (TI) на датасете токсичных комментариев из OKMLCup; | false | true | false | |
8,887 | 2026-02-24T09:09:14.943000Z | 2026-02-24T09:09:14.943000Z | Lec. | Sentiment analysis (SA) на данных SentiRuEval2016 | false | true | false | |
8,886 | 2026-02-24T09:09:13.309000Z | 2026-02-24T09:09:13.309000Z | Lec. | Natural language inference (NLI) на датасете XNLI; | false | true | false | |
8,885 | 2026-02-24T09:09:11.820000Z | 2026-02-24T09:09:11.820000Z | Lec. | Paraphrase identification (PI) на основе датасета paraphraser.ru; | false | true | false | |
8,884 | 2026-02-24T09:09:10.037000Z | 2026-02-24T09:09:10.037000Z | Lec. | Semantic text similarity (STS) на основе переведенного датасета STS-B; | false | true | false | |
8,883 | 2026-02-24T09:09:08.277000Z | 2026-02-24T09:09:08.277000Z | Lec. | Данный бенчмарк включает в себя оценку быстродействия моделей, а также измеряет качество на задачах: | false | true | false | |
8,882 | 2026-02-24T09:09:06.479000Z | 2026-02-24T09:09:06.479000Z | Lec. | Был взят бенчмарк Encodechka (рис. 5), его идея в том, чтобы понять, как хорошо разные модели превращают короткие тексты в осмысленные векторы | false | true | false | |
8,881 | 2026-02-24T09:09:04.844000Z | 2026-02-24T09:09:04.844000Z | Lec. | Для выбора модели был осуществлен поиск бенчмарков для русскоязычных энкодеров текста | false | true | false | |
8,880 | 2026-02-24T09:09:03.198000Z | 2026-02-24T09:09:03.198000Z | Lec. | Была выдвинута гипотеза о том, что можно найти более мощную модель, обеспечивающую более высокую точность | false | true | false | |
8,879 | 2026-02-24T09:09:01.451000Z | 2026-02-24T09:09:01.451000Z | Lec. | В предыдущих версиях данной работы использовалась модель rubert-base-cased, представляющая собой вариант модели BERT, обученный на русской википедии | false | true | false | |
8,878 | 2026-02-24T09:08:59.875000Z | 2026-02-24T09:08:59.875000Z | Lec. | Использование метода zero-shot learning для классификации научных работ не показало высоких значений качества предсказаний, поэтому в дальнейшем были рассмотрены альтернативные варианты обучения | false | true | false | |
8,877 | 2026-02-24T09:08:58.147000Z | 2026-02-24T09:08:58.147000Z | Lec. | GigaChat. 0,2. 0,17. 0,23 | false | false | false | |
8,876 | 2026-02-24T09:08:56.388000Z | 2026-02-24T09:08:56.388000Z | Lec. | Mistral Large. 0,4. 0,41. 0,45 | false | false | false | |
8,875 | 2026-02-24T09:08:54.650000Z | 2026-02-24T09:08:54.650000Z | Lec. | Вид модели. f1_macro. f1_micro. f1_weighted | false | false | false | |
8,874 | 2026-02-24T09:08:52.442000Z | 2026-02-24T09:08:52.442000Z | Lec. | Таблица 2 – Усредненные метрики для оценки качества предсказаний моделей Mistral Large и GigaChat | false | false | false | |
8,873 | 2026-02-24T09:08:50.724000Z | 2026-02-24T09:08:50.724000Z | Lec. | Ниже представлена таблица с оценкой качества работы данных моделей для решения задачи многометочной классификации (табл. 2) | false | true | false | |
8,872 | 2026-02-24T09:08:48.901000Z | 2026-02-24T09:08:48.901000Z | Lec. | Для получения предсказаний на тестовой выборке были использованы модели Mistral Large и GigaChat | false | true | false | |
8,871 | 2026-02-24T09:08:47.042000Z | 2026-02-24T09:08:47.042000Z | Lec. | Рисунок 4 – Количество оставшихся текстов по рубрикам 1-го уровня ГРНТИ | false | true | false | |
8,870 | 2026-02-24T09:08:45.166000Z | 2026-02-24T09:08:45.166000Z | Lec. | Ниже приведен график распределения количества элементов по классам для каждого датасета (рис. 4) | false | true | false | |
8,869 | 2026-02-24T09:08:43.521000Z | 2026-02-24T09:08:43.521000Z | Lec. | Среди них были выбраны 100 элементов, так, чтобы в датасете содержались экземпляры каждого из оставшихся 32-х классов | false | true | false | |
8,868 | 2026-02-24T09:08:41.914000Z | 2026-02-24T09:08:41.914000Z | Lec. | Для составления тестового датасета рассматривались классы ГРНТИ 1-го уровня, которые содержат не менее 800 элементов | false | true | false | |
8,867 | 2026-02-24T09:08:40.328000Z | 2026-02-24T09:08:40.328000Z | Lec. | Рисунок 3 – Промт для multilabel классификации | false | true | false | |
8,866 | 2026-02-24T09:08:38.385000Z | 2026-02-24T09:08:38.385000Z | Lec. | Ниже приведен пример сформированного промта для решения задачи multilabel классификации (рис. 3): | false | true | false | |
8,865 | 2026-02-24T09:08:36.620000Z | 2026-02-24T09:08:36.620000Z | Lec. | Адаптивность: Возможность работы с изменяющимся набором категорий | false | true | false | |
8,864 | 2026-02-24T09:08:34.847000Z | 2026-02-24T09:08:34.847000Z | Lec. | Минимизация вычислительных затрат | false | true | false | |
8,863 | 2026-02-24T09:08:33.330000Z | 2026-02-24T09:08:33.330000Z | Lec. | Отсутствие необходимости в обучающей выборке; | false | true | false | |
8,862 | 2026-02-24T09:08:31.881000Z | 2026-02-24T09:08:31.881000Z | Lec. | Экономия ресурсов: | false | true | false | |
8,861 | 2026-02-24T09:08:30.392000Z | 2026-02-24T09:08:30.392000Z | Lec. | Основные преимущества Zero-Shot Learning для многометочной классификации: | false | true | false | |
8,860 | 2026-02-24T09:08:28.315000Z | 2026-02-24T09:08:28.315000Z | Lec. | Использование результатов для оценки качества предсказаний | false | true | false | |
8,859 | 2026-02-24T09:08:26.621000Z | 2026-02-24T09:08:26.621000Z | Lec. | Парсинг выходных данных; | false | true | false | |
8,858 | 2026-02-24T09:08:22.870000Z | 2026-02-24T09:08:22.870000Z | Lec. | Обработка входного текста языковой моделью через API; | true | true | false | |
8,857 | 2026-02-24T09:08:21.403000Z | 2026-02-24T09:08:21.403000Z | Lec. | Техническая реализация: | false | true | false | |
8,856 | 2026-02-24T09:08:16.662000Z | 2026-02-24T09:08:16.662000Z | Lec. | Требования к формату ответа | false | true | false | |
8,855 | 2026-02-24T09:08:13.538000Z | 2026-02-24T09:08:13.538000Z | Lec. | Полный перечень возможных рубрик; | false | true | false | |
8,854 | 2026-02-24T09:08:12.015000Z | 2026-02-24T09:08:12.015000Z | Lec. | Четкую инструкцию по выполнению классификации; | false | true | false | |
8,853 | 2026-02-24T09:08:10.490000Z | 2026-02-24T09:08:10.490000Z | Lec. | Конструирование специализированных промптов, содержащих: | false | true | false | |
8,852 | 2026-02-24T09:08:08.603000Z | 2026-02-24T09:08:08.603000Z | Lec. | Реализация решения включает следующие этапы: | false | true | false | |
8,851 | 2026-02-24T09:08:06.341000Z | 2026-02-24T09:08:06.341000Z | Lec. | Особенностью подхода является использование заранее определенного словаря тематических рубрик в качестве набора целевых классов, что исключает необходимость этапа обучения модели на размеченных данных | false | true | false | |
8,850 | 2026-02-24T09:08:04.765000Z | 2026-02-24T09:08:04.765000Z | Lec. | В рамках данного исследования применена методика Zero-Shot Learning для решения задачи многометочной классификации научных текстов | false | true | false | |
8,849 | 2026-02-24T09:08:02.999000Z | 2026-02-24T09:08:02.999000Z | Lec. | Zero-Shot Learning (ZSL) представляет собой современный подход в области машинного обучения, позволяющий решать задачи классификации без необходимости предварительного обучения модели на размеченных данных для целевых классов [25] | false | true | false | |
8,848 | 2026-02-24T09:08:01.144000Z | 2026-02-24T09:08:01.144000Z | Lec. | Следует отметить, что рассмотренные исследования либо ограничиваются первым уровнем ГРНТИ, либо фокусируются на системе УДК, не предлагая завершенного решения для автоматической многоуровневой классификации научных публикаций | false | true | false | |
8,847 | 2026-02-24T09:07:59.356000Z | 2026-02-24T09:07:59.356000Z | Lec. | Сравнительный анализ показал преимущество модели E5 [24] с результатом 0.47 по F1-мере при работе с кодами УДК для разных уровней (от 2 до 16 уровней детализации) | false | true | false | |
8,846 | 2026-02-24T09:07:57.568000Z | 2026-02-24T09:07:57.568000Z | Lec. | Авторами разработаны специализированные оценочные показатели, учитывающие иерархическую природу классификации: точность иерархической категоризации и точность иерархических рекомендаций | false | true | false | |
8,845 | 2026-02-24T09:07:55.793000Z | 2026-02-24T09:07:55.793000Z | Lec. | В научной публикации [22] рассматриваются алгоритмы категоризации по системе УДК [23] | false | true | false | |
8,844 | 2026-02-24T09:07:54.001000Z | 2026-02-24T09:07:54.001000Z | Lec. | В рамках эксперимента с 15 категориями первого уровня ГРНТИ был получен показатель F1-меры 0.865 благодаря использованию современных нейросетевых архитектур, включая ruBERT разработки МФТИ [21] | false | true | false | |
8,843 | 2026-02-24T09:07:52.170000Z | 2026-02-24T09:07:52.170000Z | Lec. | Другой подход [20] сконцентрирован на анализе ключевых терминологических единиц научных статей | false | true | false | |
8,842 | 2026-02-24T09:07:50.515000Z | 2026-02-24T09:07:50.515000Z | Lec. | Применение традиционных алгоритмов машинного обучения и базовых нейросетевых архитектур позволило достичь показателя F1-меры 0.67, однако работа ограничивалась анализом только верхнего уровня таксономии ГРНТИ | false | true | false | |
8,841 | 2026-02-24T09:07:48.609000Z | 2026-02-24T09:07:48.609000Z | Lec. | В исследовательской работе [19] предложен метод классификации, основанный на объединении метаданных публикаций (заголовок, аннотация и ключевые термины) | false | true | false | |
8,840 | 2026-02-24T09:07:46.825000Z | 2026-02-24T09:07:46.825000Z | Lec. | Однако в научных публикациях можно найти отдельные разработки, направленные на решение отдельных аспектов данной проблемы | false | true | false | |
8,839 | 2026-02-24T09:07:45.290000Z | 2026-02-24T09:07:45.290000Z | Lec. | Анализ существующих подходов к автоматической категоризации научных текстов на русском языке в соответствии с иерархией ГРНТИ показывает отсутствие комплексных системных решений | false | true | false | |
8,838 | 2026-02-24T09:07:43.720000Z | 2026-02-24T09:07:43.720000Z | Lec. | Возможности: Способность решать широкий спектр лингвистических задач, такие как обобщение, перевод, классификация документов и диалоги с пользователями | false | true | false | |
8,837 | 2026-02-24T09:07:42.066000Z | 2026-02-24T09:07:42.066000Z | Lec. | Специализация: Основное предназначение — решение задач анализа и генерации текстов на русском языке | false | true | false | |
8,836 | 2026-02-24T09:07:39.613000Z | 2026-02-24T09:07:39.613000Z | Lec. | Архитектура: Transformer-based архитектура с применением механизмов внимания (self-attention) | false | true | false | |
8,835 | 2026-02-24T09:07:37.868000Z | 2026-02-24T09:07:37.868000Z | Lec. | Модель обладает высокой точностью понимания русского языка и эффективна в решении широкого спектра задач: обработка текстов, генерация содержательных ответов, обучение пользователей, работа с числами и аналитика данных | false | true | false | |
8,834 | 2026-02-24T09:07:35.896000Z | 2026-02-24T09:07:35.896000Z | Lec. | GigaChat [18] — русскоязычная нейронная сеть, созданная компанией Сбер, специализирующаяся на обработке естественного языка | false | true | false | |
8,833 | 2026-02-24T09:07:34.122000Z | 2026-02-24T09:07:34.122000Z | Lec. | Особенности: Возможность обработки мультимодальных запросов одновременно, гибкость настройки под конкретные задачи | false | true | false | |
8,832 | 2026-02-24T09:07:32.341000Z | 2026-02-24T09:07:32.341000Z | Lec. | Языки: Поддерживает большинство мировых языков, включая русский | false | true | false | |
8,831 | 2026-02-24T09:07:30.809000Z | 2026-02-24T09:07:30.809000Z | Lec. | Архитектура: Трансформеры, использующие внимание (attention mechanism) | false | true | false | |
8,830 | 2026-02-24T09:07:29.073000Z | 2026-02-24T09:07:29.073000Z | Lec. | Данная модель способна обрабатывать различные типы данных (текстовые, визуальные), демонстрируя высокие результаты в генерации текста, понимании естественного языка, классификации изображений и многозадачных сценариях | false | true | false | |
8,829 | 2026-02-24T09:07:27.299000Z | 2026-02-24T09:07:27.299000Z | Lec. | Mistral Large [17]— большая языковая модель, разработанная канадской компанией Mistral AI | false | true | false | |
8,828 | 2026-02-24T09:07:25.399000Z | 2026-02-24T09:07:25.399000Z | Lec. | Наряду с моделью BERT активно развиваются и другие трансформерные архитектуры, среди которых выделяются Mistral Large и GigaChat | false | true | false | |
8,827 | 2026-02-24T09:07:23.590000Z | 2026-02-24T09:07:23.590000Z | Lec. | Исследования, проводимые ранее, подтверждают высокую эффективность BERT для решения задач научной классификации [16] | false | true | false | |
8,826 | 2026-02-24T09:07:21.748000Z | 2026-02-24T09:07:21.748000Z | Lec. | Среди лидирующих по популярности моделей данной архитектуры следует выделить BERT (Bidirectional Encoder Representations from Transformers) [15] | false | true | false | |
8,825 | 2026-02-24T09:07:19.998000Z | 2026-02-24T09:07:19.998000Z | Lec. | Трансформерные архитектуры демонстрируют исключительную эффективность при решении задач текстовой классификации, что обусловлено их способностью анализировать сложные семантические связи и долгосрочные зависимости между языковыми единицами в тексте [14] | false | true | false | |
8,824 | 2026-02-24T09:07:18.052000Z | 2026-02-24T09:07:18.052000Z | Lec. | Рисунок 2 – Архитектура transformer [13] | false | true | false | |
8,823 | 2026-02-24T09:07:16.312000Z | 2026-02-24T09:07:16.312000Z | Lec. | Также в трансформер входят следующие компоненты [13]: | false | true | false | |
8,822 | 2026-02-24T09:07:14.817000Z | 2026-02-24T09:07:14.817000Z | Lec. | В последнее десятилетие в области NLP (Natural Language Processing) получили распространение модели на основе архитектуры трансформер [13] | false | true | false | |
8,821 | 2026-02-24T09:07:13.074000Z | 2026-02-24T09:07:13.074000Z | Lec. | Другое исследование [12] оценивало эффективность шести алгоритмов машинного обучения и алгоритма сопоставления строк на основе характеристик десятичной классификации Дьюи (DDC) | false | true | false | |
8,820 | 2026-02-24T09:07:11.221000Z | 2026-02-24T09:07:11.221000Z | Lec. | Многослойный персептрон (MLP) [11] | false | true | false | |
8,819 | 2026-02-24T09:07:09.653000Z | 2026-02-24T09:07:09.653000Z | Lec. | Метод k-ближайших соседей (k-NN) [10]; | false | true | false | |
8,818 | 2026-02-24T09:07:08.046000Z | 2026-02-24T09:07:08.046000Z | Lec. | Метод опорных векторов (SVM) [9]; | false | true | false | |
8,817 | 2026-02-24T09:07:06.053000Z | 2026-02-24T09:07:06.053000Z | Lec. | Наивный байесовский классификатор (NB) [8]; | false | true | false | |
8,816 | 2026-02-24T09:07:04.311000Z | 2026-02-24T09:07:04.311000Z | Lec. | В работе [7] проведено сравнение эффективности различных алгоритмов обучения с учителем для классификации по рубрикам УДК: | false | true | false | |
8,815 | 2026-02-24T09:07:02.556000Z | 2026-02-24T09:07:02.556000Z | Lec. | В частности, полносвязные нейронные сети использовались для автоматической классификации статей по рубрикам универсального десятичного классификатора (УДК) [4—6] | false | true | false | |
8,814 | 2026-02-24T09:07:00.793000Z | 2026-02-24T09:07:00.793000Z | Lec. | С развитием вычислительных технологий в классификации стали применяться традиционные алгоритмы, включая логистическую регрессию [3] | false | true | false | |
8,813 | 2026-02-24T09:06:58.837000Z | 2026-02-24T09:06:58.837000Z | Lec. | Разработка автоматизированных систем научной классификации ведется на протяжении длительного времени [2] | false | true | false | |
8,812 | 2026-02-24T09:06:57.080000Z | 2026-02-24T09:06:57.080000Z | Lec. | Рисунок 1 – Распределение кодов ГРНТИ первого уровня | false | true | false | |
8,811 | 2026-02-24T09:06:55.574000Z | 2026-02-24T09:06:55.574000Z | Lec. | Несбалансированное распределение данных способствует систематической недооценке моделями редко встречающихся классов, снижая общую эффективность классификации [1] | false | true | false | |
8,810 | 2026-02-24T09:06:54.021000Z | 2026-02-24T09:06:54.021000Z | Lec. | В результате анализ распределения данных для первого уровня ГРНТИ была выявлена несбалансированность (рис. 1) | false | true | false | |
8,809 | 2026-02-24T09:06:52.116000Z | 2026-02-24T09:06:52.116000Z | Lec. | Таблица 1 – Распределение рубрик ГРНТИ | false | true | false | |
8,808 | 2026-02-24T09:06:50.586000Z | 2026-02-24T09:06:50.586000Z | Lec. | Для обеспечения кроссплатформенной совместимости и упрощения развертывания backend-части приложения используется Docker-контейнеризация | false | true | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.