id
int64
18
18.8k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 14:51:09
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 14:51:09
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
8,957
2026-02-24T09:11:14.418000Z
2026-02-24T09:11:14.418000Z
Lec.
Классификация для 3-го уровня осложнена наличием большого количества классов, содержащих малое кол-во экземпляров
false
true
false
8,956
2026-02-24T09:11:12.952000Z
2026-02-24T09:11:12.952000Z
Lec.
После удаления экземпляров классов выполняется обработка данных, совпадающая с обработкой данных для при классификации по 1-му уровню ГРНТИ
false
true
false
8,955
2026-02-24T09:11:11.333000Z
2026-02-24T09:11:11.333000Z
Lec.
После удаления 1492 классов ГРНТИ-3 в обучающей выборке осталось 271747 текстов, распределенных по 1265 классам ГРНТИ-3
false
true
false
8,954
2026-02-24T09:11:09.638000Z
2026-02-24T09:11:09.638000Z
Lec.
Для решения задачи мультиклассификации для 3-го уровня ГРНТИ был составлен тренировочный датасет:. удалены экземпляры 207 классов ГРНТИ 2-ого уровня, которые имеют < 300 текстов;. удалены экземпляры датасета, текст для которых имеет < 10 символов
false
true
false
8,953
2026-02-24T09:11:07.928000Z
2026-02-24T09:11:07.928000Z
Lec.
Рисунок 19 – График зависимости f1 от threshold на тестовом датасете при использовании иерархического классификатора
false
true
false
8,952
2026-02-24T09:11:05.837000Z
2026-02-24T09:11:05.837000Z
Lec.
Рисунок 18 – График зависимости f1 от threshold на тестовом датасете при использовании плоского классификатора
false
true
false
8,951
2026-02-24T09:11:03.904000Z
2026-02-24T09:11:03.904000Z
Lec.
Графики для результатов тестирования при использовании плоского классификатора (рис. 18) и иерархического (рис. 19) представлены ниже
false
true
false
8,950
2026-02-24T09:11:02.265000Z
2026-02-24T09:11:02.265000Z
Lec.
Таблица 6 – Метрики в зависимости от вида классификатора: плоский и иерархический
false
true
false
8,949
2026-02-24T09:11:00.718000Z
2026-02-24T09:11:00.718000Z
Lec.
Ниже представлена таблица с результатами для метрик для плоского и иерархического классификатора при обучении в течение 8 эпох (таб. 6)
false
true
false
8,948
2026-02-24T09:10:58.864000Z
2026-02-24T09:10:58.864000Z
Lec.
Рисунок 17 – Диаграмма работы иерархического классификатора
false
true
false
8,947
2026-02-24T09:10:56.894000Z
2026-02-24T09:10:56.894000Z
Lec.
Иерархические классификаторы учитывают структуру взаимосвязей между классами, организованную в виде дерева (рис. 17)
false
true
false
8,946
2026-02-24T09:10:55.195000Z
2026-02-24T09:10:55.195000Z
Lec.
Рисунок 16 – Диаграмма работы плоского классификатора
false
true
false
8,945
2026-02-24T09:10:53.197000Z
2026-02-24T09:10:53.197000Z
Lec.
Названия классов 1-го уровня, предсказания моделей для 1-го уровня ГРНТИ не учитываются, поэтому процесс обучения модели для предсказания 2-го уровня аналогичен процессу обучения для модели 1-го уровня ГРНТИ
false
true
false
8,944
2026-02-24T09:10:51.583000Z
2026-02-24T09:10:51.583000Z
Lec.
При использовании плоского классификатора все классы рассматриваются как независимые и равноправные, без учета возможных взаимосвязей между ними (рис. 16)
false
true
false
8,943
2026-02-24T09:10:49.902000Z
2026-02-24T09:10:49.902000Z
Lec.
Рисунок 15 – Количество оставшихся классов 2-й уровень ГРНТИ
false
true
false
8,942
2026-02-24T09:10:48.241000Z
2026-02-24T09:10:48.241000Z
Lec.
Рисунок 14 – Кол-во удаляемых классов 2-й уровень ГРНТИ
false
true
false
8,941
2026-02-24T09:10:46.236000Z
2026-02-24T09:10:46.236000Z
Lec.
Ниже представлены графики количества экземпляров для удаленных (рис. 14) и оставленных классов (рис. 15)
false
true
false
8,940
2026-02-24T09:10:44.590000Z
2026-02-24T09:10:44.590000Z
Lec.
Рисунок 13 – График зависимости f1 от threshold на тестовом датасете при обучении с методом LORA
false
false
false
8,939
2026-02-24T09:10:42.709000Z
2026-02-24T09:10:42.709000Z
Lec.
Рисунок 12 – График зависимости f1 от threshold на тестовом датасете при обучении только слоя для классификации
false
true
false
8,938
2026-02-24T09:10:40.886000Z
2026-02-24T09:10:40.886000Z
Lec.
Графики для результатов тестирования при обучении только слоя классификации (рис. 12) и обучении с методом LoRA (рис. 13) представлены ниже
false
true
false
8,937
2026-02-24T09:10:38.919000Z
2026-02-24T09:10:38.919000Z
Lec.
Таблица 5 – Усредненные метрики для обучения только слоя классификации и только с методом LoRA
false
false
false
8,936
2026-02-24T09:10:37.406000Z
2026-02-24T09:10:37.406000Z
Lec.
Ниже представлена таблица с результатами для метрик (таб. 5)
false
true
false
8,935
2026-02-24T09:10:35.919000Z
2026-02-24T09:10:35.919000Z
Lec.
Рисунок 11 – График зависимости f1 от threshold на тестовом датасете для классификации при добавлении расшифровок рядом с сокращениями
false
false
false
8,934
2026-02-24T09:10:34.126000Z
2026-02-24T09:10:34.126000Z
Lec.
Рисунок 10 – График зависимости f1 от threshold на тестовом датасете для классификации при замене сокращений на их расшифровки
false
false
false
8,933
2026-02-24T09:10:32.303000Z
2026-02-24T09:10:32.303000Z
Lec.
Рисунок 9 – График зависимости f1 от threshold на тестовом датасете для классификации без использования словаря сокращений
false
true
false
8,932
2026-02-24T09:10:30.215000Z
2026-02-24T09:10:30.215000Z
Lec.
Графики для результатов тестирования моделей, обученных на 1-м, 2-м, 3-м датасете, представлены ниже (рис. 9, 10, 11)
false
true
false
8,931
2026-02-24T09:10:28.557000Z
2026-02-24T09:10:28.557000Z
Lec.
Таблица 4 – Усредненные метрики для разных вариантов работы со словарем сокращений
false
true
false
8,930
2026-02-24T09:10:26.744000Z
2026-02-24T09:10:26.744000Z
Lec.
Таблица для сравнения усредненных метрик f1 для различных вариантов работы со словарем сокращений представлена ниже (таб. 4)
false
true
false
8,929
2026-02-24T09:10:25.085000Z
2026-02-24T09:10:25.085000Z
Lec.
Рисунок 8 – Количество оставшихся текстов по рубрикам 1-го уровня ГРНТИ
false
true
false
8,928
2026-02-24T09:10:23.193000Z
2026-02-24T09:10:23.193000Z
Lec.
Рисунок 7– Количество удаляемых текстов. 1-й уровень ГРНТИ
false
true
false
8,927
2026-02-24T09:10:21.279000Z
2026-02-24T09:10:21.279000Z
Lec.
Ниже представлены графики количества экземпляров для удаленных (рис. 8) и оставленных классов (рис. 7)
false
true
false
8,926
2026-02-24T09:10:19.647000Z
2026-02-24T09:10:19.647000Z
Lec.
Удалены экземпляры датасета, текст для которых имеет < 10 символов
true
true
false
8,925
2026-02-24T09:10:17.996000Z
2026-02-24T09:10:17.996000Z
Lec.
Из датасета удалены 11 классов ГРНТИ 1-ого уровня с наименьшим количеством экземпляров (< 600 текстов в рубрике);
false
true
false
8,924
2026-02-24T09:10:16.484000Z
2026-02-24T09:10:16.484000Z
Lec.
Для каждой статьи из тренировочного датасета соединяем в одну строку через «[SEP]» название, аннотацию, ключевые слова, затем текст кодируется (применяется кодировщик BERT)
false
true
false
8,923
2026-02-24T09:10:14.963000Z
2026-02-24T09:10:14.963000Z
Lec.
Для каждой статьи из тренировочного датасета кодируются рубрики ГРНТИ 1-ого уровня числами от 0 до M-1, где M— число уникальных рубрик 2-ого уровня в тренировочных данных, сохраняем словарь, где ключи: рубрики ГРНТИ 2-ого уровня, а значения: кодировки рубрик
false
true
false
8,922
2026-02-24T09:10:13.392000Z
2026-02-24T09:10:13.392000Z
Lec.
Ниже описан процесс обработки данных для дальнейшего обучения:
false
true
false
8,921
2026-02-24T09:10:11.928000Z
2026-02-24T09:10:11.928000Z
Lec.
Специальные русскоязычные датасеты, специальная функция ошибки и объединение обучения трех разных моделей и приводят к такому высокому результату
false
true
false
8,920
2026-02-24T09:10:10.344000Z
2026-02-24T09:10:10.344000Z
Lec.
Эта модель инициализирована из TatonkaHF/bge-m3_en_ru, которая является сокращенной версией модели baai/bge-m3 от Alibaba Cloud и специальным образом дообучена работе с русским языком
false
true
false
8,919
2026-02-24T09:10:08.492000Z
2026-02-24T09:10:08.492000Z
Lec.
По результатам тестирования была выбрана лучшая модель deepvk/USER-bge-m3
false
true
false
8,918
2026-02-24T09:10:06.955000Z
2026-02-24T09:10:06.955000Z
Lec.
BGE-M3 (Byte-Level Global Encoder). 0.841
false
false
false
8,917
2026-02-24T09:10:05.484000Z
2026-02-24T09:10:05.484000Z
Lec.
USER-bge-m3
false
false
false
8,916
2026-02-24T09:10:03.921000Z
2026-02-24T09:10:03.921000Z
Lec.
DeBERTa. 0.698
false
false
false
8,915
2026-02-24T09:10:02.233000Z
2026-02-24T09:10:02.233000Z
Lec.
Language-agnostic BERT. 0.785
false
true
false
8,914
2026-02-24T09:10:00.631000Z
2026-02-24T09:10:00.631000Z
Lec.
LaBSE-turbo
false
false
false
8,913
2026-02-24T09:09:59.114000Z
2026-02-24T09:09:59.114000Z
Lec.
BERT. 0.724. rubert-tiny-turbo
false
false
false
8,912
2026-02-24T09:09:57.603000Z
2026-02-24T09:09:57.603000Z
Lec.
FRIDA. rubert-tiny-turbo
false
true
false
8,911
2026-02-24T09:09:55.813000Z
2026-02-24T09:09:55.813000Z
Lec.
T5. cuda out of memory
false
false
false
8,910
2026-02-24T09:09:54.331000Z
2026-02-24T09:09:54.331000Z
Lec.
Language-agnostic BERT. 0.796
false
true
false
8,909
2026-02-24T09:09:52.709000Z
2026-02-24T09:09:52.709000Z
Lec.
BERT. 0.723. rubert-tiny-2
false
false
false
8,908
2026-02-24T09:09:51.018000Z
2026-02-24T09:09:51.018000Z
Lec.
BERT. 0.801. rubert-base-cased. rubert-tiny-2
false
false
false
8,907
2026-02-24T09:09:49.241000Z
2026-02-24T09:09:49.241000Z
Lec.
Модель. rubert-base-cased
false
true
false
8,906
2026-02-24T09:09:47.284000Z
2026-02-24T09:09:47.284000Z
Lec.
Семейство. f1_weighted
false
true
false
8,905
2026-02-24T09:09:45.612000Z
2026-02-24T09:09:45.612000Z
Lec.
Таблица 3 – Таблица результатов работы моделей для получения рубрик ГРНТИ
false
true
false
8,904
2026-02-24T09:09:44.022000Z
2026-02-24T09:09:44.022000Z
Lec.
Ниже представлены результаты исследования (таб. 3)
false
true
false
8,903
2026-02-24T09:09:42.304000Z
2026-02-24T09:09:42.304000Z
Lec.
Также число эпох было ограничено 8
false
true
false
8,902
2026-02-24T09:09:40.808000Z
2026-02-24T09:09:40.808000Z
Lec.
В итоге число записей может незначительно отличаться от 7000
false
true
false
8,901
2026-02-24T09:09:39.239000Z
2026-02-24T09:09:39.239000Z
Lec.
При этом некоторые категории встречались в связке с другими, поэтому пришлось особо редкие классы защищать от удаления
false
true
false
8,900
2026-02-24T09:09:37.482000Z
2026-02-24T09:09:37.482000Z
Lec.
Для сравнительного анализа моделей было осуществлено сокращение каждой категории первого уровня ГРНТИ до 7000 записей
false
true
false
8,899
2026-02-24T09:09:35.924000Z
2026-02-24T09:09:35.924000Z
Lec.
Рисунок 6 – Качество работы моделей на бенчмарке MTEB
false
true
false
8,898
2026-02-24T09:09:34.213000Z
2026-02-24T09:09:34.213000Z
Lec.
Лучшая модель бенчмарка —FRIDA, имеющая 0.8 млрд параметров, не помещается в видеокарту RTX 4060
false
false
false
8,897
2026-02-24T09:09:32.338000Z
2026-02-24T09:09:32.338000Z
Lec.
Подавляющее большинство моделей из лучших там составляют различные варианты LLM с миллиардами параметров
false
true
false
8,896
2026-02-24T09:09:30.614000Z
2026-02-24T09:09:30.614000Z
Lec.
Также был проанализирован и русский вариант бенчмарка MTEB (рис. 6)
false
true
false
8,895
2026-02-24T09:09:28.678000Z
2026-02-24T09:09:28.678000Z
Lec.
Было решено протестировать модели из данного бенчмарка
false
true
false
8,894
2026-02-24T09:09:26.972000Z
2026-02-24T09:09:26.972000Z
Lec.
Рисунок 5 – Нагрузка моделей на бенчмарке Encodechka
false
false
false
8,893
2026-02-24T09:09:25.257000Z
2026-02-24T09:09:25.257000Z
Lec.
Эти две задачи требуют получать эмбеддинги отдельных токенов, а не целых предложений; поэтому там участвуют не все модели
false
true
false
8,892
2026-02-24T09:09:23.456000Z
2026-02-24T09:09:23.456000Z
Lec.
Распознавание именованных сущностей на датасетах factRuEval-2016 (NE1) и RuDReC (NE2)
false
true
false
8,891
2026-02-24T09:09:21.663000Z
2026-02-24T09:09:21.664000Z
Lec.
В IC классификатор обучается на русских данных, а в ICX – на английских, а тестируется в обоих случаях на русских
false
true
false
8,890
2026-02-24T09:09:20.064000Z
2026-02-24T09:09:20.064000Z
Lec.
Intent classification (IC) и ее кросс-язычная версия ICX на датасете NLU-evaluation-data, который я автоматически перевел на русский
false
true
false
8,889
2026-02-24T09:09:18.525000Z
2026-02-24T09:09:18.525000Z
Lec.
Inappropriateness identification (II) на датасете Сколтеха;
false
true
false
8,888
2026-02-24T09:09:16.768000Z
2026-02-24T09:09:16.768000Z
Lec.
Toxicity identification (TI) на датасете токсичных комментариев из OKMLCup;
false
true
false
8,887
2026-02-24T09:09:14.943000Z
2026-02-24T09:09:14.943000Z
Lec.
Sentiment analysis (SA) на данных SentiRuEval2016
false
true
false
8,886
2026-02-24T09:09:13.309000Z
2026-02-24T09:09:13.309000Z
Lec.
Natural language inference (NLI) на датасете XNLI;
false
true
false
8,885
2026-02-24T09:09:11.820000Z
2026-02-24T09:09:11.820000Z
Lec.
Paraphrase identification (PI) на основе датасета paraphraser.ru;
false
true
false
8,884
2026-02-24T09:09:10.037000Z
2026-02-24T09:09:10.037000Z
Lec.
Semantic text similarity (STS) на основе переведенного датасета STS-B;
false
true
false
8,883
2026-02-24T09:09:08.277000Z
2026-02-24T09:09:08.277000Z
Lec.
Данный бенчмарк включает в себя оценку быстродействия моделей, а также измеряет качество на задачах:
false
true
false
8,882
2026-02-24T09:09:06.479000Z
2026-02-24T09:09:06.479000Z
Lec.
Был взят бенчмарк Encodechka (рис. 5), его идея в том, чтобы понять, как хорошо разные модели превращают короткие тексты в осмысленные векторы
false
true
false
8,881
2026-02-24T09:09:04.844000Z
2026-02-24T09:09:04.844000Z
Lec.
Для выбора модели был осуществлен поиск бенчмарков для русскоязычных энкодеров текста
false
true
false
8,880
2026-02-24T09:09:03.198000Z
2026-02-24T09:09:03.198000Z
Lec.
Была выдвинута гипотеза о том, что можно найти более мощную модель, обеспечивающую более высокую точность
false
true
false
8,879
2026-02-24T09:09:01.451000Z
2026-02-24T09:09:01.451000Z
Lec.
В предыдущих версиях данной работы использовалась модель rubert-base-cased, представляющая собой вариант модели BERT, обученный на русской википедии
false
true
false
8,878
2026-02-24T09:08:59.875000Z
2026-02-24T09:08:59.875000Z
Lec.
Использование метода zero-shot learning для классификации научных работ не показало высоких значений качества предсказаний, поэтому в дальнейшем были рассмотрены альтернативные варианты обучения
false
true
false
8,877
2026-02-24T09:08:58.147000Z
2026-02-24T09:08:58.147000Z
Lec.
GigaChat. 0,2. 0,17. 0,23
false
false
false
8,876
2026-02-24T09:08:56.388000Z
2026-02-24T09:08:56.388000Z
Lec.
Mistral Large. 0,4. 0,41. 0,45
false
false
false
8,875
2026-02-24T09:08:54.650000Z
2026-02-24T09:08:54.650000Z
Lec.
Вид модели. f1_macro. f1_micro. f1_weighted
false
false
false
8,874
2026-02-24T09:08:52.442000Z
2026-02-24T09:08:52.442000Z
Lec.
Таблица 2 – Усредненные метрики для оценки качества предсказаний моделей Mistral Large и GigaChat
false
false
false
8,873
2026-02-24T09:08:50.724000Z
2026-02-24T09:08:50.724000Z
Lec.
Ниже представлена таблица с оценкой качества работы данных моделей для решения задачи многометочной классификации (табл. 2)
false
true
false
8,872
2026-02-24T09:08:48.901000Z
2026-02-24T09:08:48.901000Z
Lec.
Для получения предсказаний на тестовой выборке были использованы модели Mistral Large и GigaChat
false
true
false
8,871
2026-02-24T09:08:47.042000Z
2026-02-24T09:08:47.042000Z
Lec.
Рисунок 4 – Количество оставшихся текстов по рубрикам 1-го уровня ГРНТИ
false
true
false
8,870
2026-02-24T09:08:45.166000Z
2026-02-24T09:08:45.166000Z
Lec.
Ниже приведен график распределения количества элементов по классам для каждого датасета (рис. 4)
false
true
false
8,869
2026-02-24T09:08:43.521000Z
2026-02-24T09:08:43.521000Z
Lec.
Среди них были выбраны 100 элементов, так, чтобы в датасете содержались экземпляры каждого из оставшихся 32-х классов
false
true
false
8,868
2026-02-24T09:08:41.914000Z
2026-02-24T09:08:41.914000Z
Lec.
Для составления тестового датасета рассматривались классы ГРНТИ 1-го уровня, которые содержат не менее 800 элементов
false
true
false
8,867
2026-02-24T09:08:40.328000Z
2026-02-24T09:08:40.328000Z
Lec.
Рисунок 3 – Промт для multilabel классификации
false
true
false
8,866
2026-02-24T09:08:38.385000Z
2026-02-24T09:08:38.385000Z
Lec.
Ниже приведен пример сформированного промта для решения задачи multilabel классификации (рис. 3):
false
true
false
8,865
2026-02-24T09:08:36.620000Z
2026-02-24T09:08:36.620000Z
Lec.
Адаптивность: Возможность работы с изменяющимся набором категорий
false
true
false
8,864
2026-02-24T09:08:34.847000Z
2026-02-24T09:08:34.847000Z
Lec.
Минимизация вычислительных затрат
false
true
false
8,863
2026-02-24T09:08:33.330000Z
2026-02-24T09:08:33.330000Z
Lec.
Отсутствие необходимости в обучающей выборке;
false
true
false
8,862
2026-02-24T09:08:31.881000Z
2026-02-24T09:08:31.881000Z
Lec.
Экономия ресурсов:
false
true
false
8,861
2026-02-24T09:08:30.392000Z
2026-02-24T09:08:30.392000Z
Lec.
Основные преимущества Zero-Shot Learning для многометочной классификации:
false
true
false
8,860
2026-02-24T09:08:28.315000Z
2026-02-24T09:08:28.315000Z
Lec.
Использование результатов для оценки качества предсказаний
false
true
false
8,859
2026-02-24T09:08:26.621000Z
2026-02-24T09:08:26.621000Z
Lec.
Парсинг выходных данных;
false
true
false
8,858
2026-02-24T09:08:22.870000Z
2026-02-24T09:08:22.870000Z
Lec.
Обработка входного текста языковой моделью через API;
true
true
false