id
int64
18
21.1k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 16:54:39
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 16:54:39
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
10,107
2026-02-24T09:45:40.507000Z
2026-02-24T09:45:40.507000Z
Lec.
В SBERT добавлен специальный слой, который преобразует последовательность токенов в единый вектор (обычно с использованием mean–pooling по последнему скрытому слою)
false
true
false
10,106
2026-02-24T09:45:38.940000Z
2026-02-24T09:45:38.940000Z
Lec.
Эта архитектура предназначена для работы с предложениями, а не с отдельными словами
false
true
false
10,105
2026-02-24T09:45:37.294000Z
2026-02-24T09:45:37.294000Z
Lec.
Другим методом оптимизации трансформеров является Sentence BERT (SBERT) [17]
false
true
false
10,104
2026-02-24T09:45:35.572000Z
2026-02-24T09:45:35.572000Z
Lec.
В работе наглядно показывается, что RoBERTa превосходит традиционные трансформеры с фиксированным маскированием
false
true
false
10,103
2026-02-24T09:45:33.857000Z
2026-02-24T09:45:33.857000Z
Lec.
Эти изменения дают преимущества по сравнению с обычным BERT
false
true
false
10,102
2026-02-24T09:45:32.247000Z
2026-02-24T09:45:32.247000Z
Lec.
RoBERTa более тщательно подбирает гиперпараметры [16], включая более высокие learning rates на начальных этапах, что положительно сказывается на качестве
false
true
false
10,101
2026-02-24T09:45:30.493000Z
2026-02-24T09:45:30.493000Z
Lec.
На каждом шаге обучения (batch) маски меняются, что дает модели возможность «угадывать» большее разнообразие скрытых токенов в разных контекстах. 3
false
true
false
10,100
2026-02-24T09:45:28.917000Z
2026-02-24T09:45:28.917000Z
Lec.
Модель обучалась на более крупных и разнообразных датасетах (например, Common Crawl, Reddit и др.), что позволило улучшить ее обобщающие способности. 2
false
true
false
10,099
2026-02-24T09:45:27.140000Z
2026-02-24T09:45:27.140000Z
Lec.
Основные отличия заключаются в следующем:. 1
false
true
false
10,098
2026-02-24T09:45:25.293000Z
2026-02-24T09:45:25.293000Z
Lec.
Усовершенствованной версией BERT является RoBERTa (Robustly Optimized BERT Approach) [15]
false
true
false
10,097
2026-02-24T09:45:23.365000Z
2026-02-24T09:45:23.365000Z
Lec.
BERT показывает более высокую точность предсказаний по сравнению с устаревшими методами обработки текста
false
true
false
10,096
2026-02-24T09:45:21.615000Z
2026-02-24T09:45:21.615000Z
Lec.
В работе продемонстрировано применение BERT для мультиклассового распознавания текстов
false
true
false
10,095
2026-02-24T09:45:19.880000Z
2026-02-24T09:45:19.880000Z
Lec.
Эта модель была представлена в 2019 году и считается эталоном для сравнения всех остальных архитектур
false
true
false
10,094
2026-02-24T09:45:18.185000Z
2026-02-24T09:45:18.185000Z
Lec.
Первой и наиболее известной моделью на основе трансформеров является BERT, которая одинаково успешно справляется с задачами классификации
false
true
false
10,093
2026-02-24T09:45:16.450000Z
2026-02-24T09:45:16.450000Z
Lec.
Рисунок 5 – Общая архитектура трансформеров
false
true
false
10,092
2026-02-24T09:45:14.874000Z
2026-02-24T09:45:14.874000Z
Lec.
Для улучшения стабильности и ускорения обучения внедряются нормализация слоев и регуляризация L2 [14]
false
true
false
10,091
2026-02-24T09:45:13.016000Z
2026-02-24T09:45:13.016000Z
Lec.
За слоем самовнимания располагается блок сети с прямой передачей, который обрабатывает выходное представление каждой лексемы независимо
false
true
false
10,090
2026-02-24T09:45:11.241000Z
2026-02-24T09:45:11.241000Z
Lec.
Для каждой головы внимания применяется своя матрица для векторов запроса (Q), ключа (K) и значения (V), что помогает модели выявлять разные языковые зависимости
false
true
false
10,089
2026-02-24T09:45:09.653000Z
2026-02-24T09:45:09.653000Z
Lec.
Ключевым элементом кодера является многоголовый механизм самовнимания [13], позволяющий модулю внимания одновременно рассматривать различные аспекты взаимодействия лексем
false
true
false
10,088
2026-02-24T09:45:07.886000Z
2026-02-24T09:45:07.886000Z
Lec.
Декодер генерирует выходную последовательность поэтапно, опираясь на закодированное представление кодера
false
true
false
10,087
2026-02-24T09:45:06.289000Z
2026-02-24T09:45:06.289000Z
Lec.
Кодер принимает последовательность лексем и формирует для каждой из них скрытое представление, учитывающее контекст остальных лексем
false
true
false
10,086
2026-02-24T09:45:04.666000Z
2026-02-24T09:45:04.666000Z
Lec.
В стандартной модели трансформер делится на две части: кодер и декодер
false
true
false
10,085
2026-02-24T09:45:02.854000Z
2026-02-24T09:45:02.854000Z
Lec.
Общая структура трансформеров показана на рисунке 2
false
true
false
10,084
2026-02-24T09:45:01.319000Z
2026-02-24T09:45:01.319000Z
Lec.
Ключевое достоинство трансформеров заключается в возможности каждого токена из входной последовательности (например, слова или его части) взаимодействовать с другими токенами, не прибегая к последовательной обработке, как это делается в рекуррентных сетях
false
true
false
10,083
2026-02-24T09:44:59.524000Z
2026-02-24T09:44:59.524000Z
Lec.
Трансформеры первого поколения основываются на принципе отказа от рекуррентных и сверточных [12] механизмов, акцентируя внимание на многоголовом внимании
false
true
false
10,082
2026-02-24T09:44:57.960000Z
2026-02-24T09:44:57.960000Z
Lec.
К наиболее популярным относятся трансформеры и сочетания текстовых векторизаторов [11] с регрессионными моделями
false
true
false
10,081
2026-02-24T09:44:56.232000Z
2026-02-24T09:44:56.232000Z
Lec.
На сегодняшний день имеется множество архитектур для классификации текстовых данных
false
true
false
10,080
2026-02-24T09:44:54.504000Z
2026-02-24T09:44:54.504000Z
Lec.
Облачные сервисы не позволяют развертывать модель локально, а также требуют постоянной оплаты
false
true
false
10,079
2026-02-24T09:44:52.952000Z
2026-02-24T09:44:52.952000Z
Lec.
Таким образом, не существует полноценного инструмента, который мог бы полноценно классифицировать текста по рубрикатору ГРНТИ без требования подключения к интернету и соблюдения условий конфиденциальности данных
false
true
false
10,078
2026-02-24T09:44:51.153000Z
2026-02-24T09:44:51.153000Z
Lec.
Стоит отметить, что у этой платформы есть ограничение на объем данных, которые могут быть обработаны одновременно
false
true
false
10,077
2026-02-24T09:44:49.330000Z
2026-02-24T09:44:49.330000Z
Lec.
В сервисе присутствует возможность разрабатывать индивидуальные модели на основе своих данных, что позволяет получать более точные результаты
false
true
false
10,076
2026-02-24T09:44:47.475000Z
2026-02-24T09:44:47.475000Z
Lec.
MonkeyLearn [10] – платформа для машинного обучения, которая предназначена для классификации текстов с помощью заранее обученных моделей
false
true
false
10,075
2026-02-24T09:44:45.720000Z
2026-02-24T09:44:45.720000Z
Lec.
В нашем случае использование облачных платформ нарушает принцип конфиденциальности, который является требованием к ПО
false
true
false
10,074
2026-02-24T09:44:44.020000Z
2026-02-24T09:44:44.020000Z
Lec.
С их помощью возможно создавать модели классификации для выявления тем в данных
false
true
false
10,073
2026-02-24T09:44:42.083000Z
2026-02-24T09:44:42.083000Z
Lec.
IBM Watson [9] – многозадачная облачная платформа, имеет широкий ассортимент работы с данными, в том числе классификации текстов
false
true
false
10,072
2026-02-24T09:44:40.304000Z
2026-02-24T09:44:40.304000Z
Lec.
В итоге результаты были недостаточно высоки с учетом существовавших на тот момент технологий
false
true
false
10,071
2026-02-24T09:44:38.570000Z
2026-02-24T09:44:38.570000Z
Lec.
В отличие от подхода в этой работе, где для каждого кода ГРНТИ на втором и третьем уровне создается своя модель, здесь есть одна модель только для каждого конкретного уровня
false
true
false
10,070
2026-02-24T09:44:36.938000Z
2026-02-24T09:44:36.938000Z
Lec.
Для каждого уровня используется одна модель
false
true
false
10,069
2026-02-24T09:44:35.451000Z
2026-02-24T09:44:35.451000Z
Lec.
Он был выполнен на языке Python в виде консольного приложения с трехуровневой классификацией, используя стандартную модель Bidirectional Encoder Representations from Transformers (BERT) [8] в связке с рекуррентными моделями
false
true
false
10,068
2026-02-24T09:44:33.590000Z
2026-02-24T09:44:33.590000Z
Lec.
Классификатор кодов ГРНТИ Всероссийского Института Научной и Технической Информации, для замены которого создается эта разработка
false
true
false
10,067
2026-02-24T09:44:31.595000Z
2026-02-24T09:44:31.595000Z
Lec.
На данный момент существует огромное количество классификаторов текстов, которые подходят под заданные критерии: иерархичность классификации, работа с большими текстами, возможность присвоения нескольких категорий одному тексту
false
true
false
10,066
2026-02-24T09:44:29.967000Z
2026-02-24T09:44:29.967000Z
Lec.
Итоговая программа должна работать на персональном компьютере на ОС Windows 11 с 16 ГБ ОЗУ, 4 ядерным процессором, время полного прохода одного текста не должно превышать 6 секунд
false
true
false
10,065
2026-02-24T09:44:28.188000Z
2026-02-24T09:44:28.188000Z
Lec.
Для этого планируется применять мягкая классификация на втором и третьем уровне, каждый из них сможет выдавать по 2 класса в зависимости от степени уверенности, который ввел пользователь (от 0 до 1)
false
true
false
10,064
2026-02-24T09:44:25.770000Z
2026-02-24T09:44:25.770000Z
Lec.
Разработанный ансамбль должен также поддерживать нежесткую классификацию для второго и третьего уровня, так как научная работа может потенциально относиться к двум и более типам научных работ
false
true
false
10,063
2026-02-24T09:44:24.149000Z
2026-02-24T09:44:24.149000Z
Lec.
Рисунок 4 – Общая схема программы
false
true
false
10,062
2026-02-24T09:44:22.264000Z
2026-02-24T09:44:22.264000Z
Lec.
Примерная схема классификатора отображена на рисунке ниже
false
true
false
10,061
2026-02-24T09:44:20.301000Z
2026-02-24T09:44:20.301000Z
Lec.
Программа для второго и третьего уровня выбирает, какая модель запускается, исходя из предсказаний модели выше
false
true
false
10,060
2026-02-24T09:44:18.772000Z
2026-02-24T09:44:18.772000Z
Lec.
Модели второго и третьего уровней обучаются на конкретных поднаборах данных
false
true
false
10,059
2026-02-24T09:44:17.014000Z
2026-02-24T09:44:17.014000Z
Lec.
На третьем уровне планируется применять линейный векторизатор с простой моделью классификатора
false
true
false
10,058
2026-02-24T09:44:15.489000Z
2026-02-24T09:44:15.489000Z
Lec.
В этой работе на первом уровне располагается мощная модель классификации, на втором – меньшие модели с трансформенной [7] архитектурой
false
true
false
10,057
2026-02-24T09:44:13.627000Z
2026-02-24T09:44:13.627000Z
Lec.
Третий уровень отсутсвует
false
true
false
10,056
2026-02-24T09:44:11.841000Z
2026-02-24T09:44:11.841000Z
Lec.
Для второго уровня: f1 macro: 0,5507, f1 weighted: 0,5507 на модели Word2Vec [6]
false
true
false
10,055
2026-02-24T09:44:10.002000Z
2026-02-24T09:44:10.002000Z
Lec.
Модель классификации: rubert–DeepPavlov [5]
false
true
false
10,054
2026-02-24T09:44:08.053000Z
2026-02-24T09:44:08.053000Z
Lec.
Для первого уровня F1 weighted: 0,8479, F1 macro: 0,8382 и F1 micro: 0,8488. 36 классов
false
true
false
10,053
2026-02-24T09:44:06.480000Z
2026-02-24T09:44:06.480000Z
Lec.
Текущая программа имеет следующие характеристики:
false
true
false
10,052
2026-02-24T09:44:04.742000Z
2026-02-24T09:44:04.742000Z
Lec.
Поэтому эта работа, так же как и уже существующая разработка ВИНИТИ, базируется на ансамбле моделей из трех уровней
false
true
false
10,051
2026-02-24T09:44:03.103000Z
2026-02-24T09:44:03.103000Z
Lec.
Из-за большого количества классов и их дисбаланса любая модель значительно теряет в точности
false
true
false
10,050
2026-02-24T09:44:01.317000Z
2026-02-24T09:44:01.317000Z
Lec.
Учитывая сложность классификации с заметным дисбалансом весов, в качестве ключевых метрик используются метрики F1 weighted, F1 macro и F1 micro [4]
false
true
false
10,049
2026-02-24T09:43:59.732000Z
2026-02-24T09:43:59.732000Z
Lec.
В кодификаторе ГРНТИ насчитывается около 3600 уникальных кодов
false
true
false
10,048
2026-02-24T09:43:57.984000Z
2026-02-24T09:43:57.984000Z
Lec.
Рисунок 2 – Пример кодификатора
false
true
false
10,047
2026-02-24T09:43:56.167000Z
2026-02-24T09:43:56.167000Z
Lec.
Пример кодификатора на рисунке ниже:
false
true
false
10,046
2026-02-24T09:43:54.146000Z
2026-02-24T09:43:54.146000Z
Lec.
Каждая часть является подразделом какой-либо науки, например 34 – биология, 34.47 – токсикология и так далее
false
false
false
10,045
2026-02-24T09:43:52.430000Z
2026-02-24T09:43:52.430000Z
Lec.
Код Государственного Рубрикатора Научной и Технической Информации (ГРНТИ) представляет собой три части, каждая из которых имеет двузначное значение
false
true
false
10,044
2026-02-24T09:43:50.769000Z
2026-02-24T09:43:50.769000Z
Lec.
Все это подчеркивает возрастающую важность иерархической классификации текстов и демонстрирует ее потенциал для будущего развития интеллектуальных систем в области обработки естественного языка
false
true
false
10,043
2026-02-24T09:43:49.001000Z
2026-02-24T09:43:49.001000Z
Lec.
Когда появляется новая подкатегория, ее можно без особых трудностей интегрировать в существующую структуру, что минимизирует необходимость перестраивания всей модели
false
true
false
10,042
2026-02-24T09:43:47.357000Z
2026-02-24T09:43:47.357000Z
Lec.
Кроме того, иерархия удобно используется для расширения базы данных
false
true
false
10,041
2026-02-24T09:43:45.767000Z
2026-02-24T09:43:45.767000Z
Lec.
Также такая структура позволяет настраивать систему под узкоспециализированные задачи, где необходимы тонкие различия внутри более крупных тем
false
true
false
10,040
2026-02-24T09:43:44.163000Z
2026-02-24T09:43:44.163000Z
Lec.
Иерархическая модель успешно справляется с рядом проблем, которые возникают у традиционных моделей, особенно в плане достижения оптимального баланса между переобучением, когда система чрезмерно фокусируется на деталях наборов данных, и ситуацией, когда игнорируются важные признаки
false
true
false
10,039
2026-02-24T09:43:42.323000Z
2026-02-24T09:43:42.323000Z
Lec.
Классификация, организованная по двухуровневой или многоступенчатой структуре категорий, позволяет учитывать сложные взаимосвязи между категориями и лучше отражать специфику различных предметных областей
false
true
false
10,038
2026-02-24T09:43:40.688000Z
2026-02-24T09:43:40.688000Z
Lec.
В заключение, важно отметить, что иерархическая классификация играет ключевую роль в решении современных задач
false
true
false
10,037
2026-02-24T09:43:38.881000Z
2026-02-24T09:43:38.881000Z
Lec.
Такой классификатор позволяет избежать сильного дисбаланса классов и повысить качество предсказаний, а также работать с гораздо более сложными структурами
false
true
false
10,036
2026-02-24T09:43:37.304000Z
2026-02-24T09:43:37.304000Z
Lec.
В этом контексте идея иерархической классификации выходит на передний план, предоставляя инструменты для более детального и тонкого представления предметных областей
false
true
false
10,035
2026-02-24T09:43:35.662000Z
2026-02-24T09:43:35.662000Z
Lec.
Динамичность живого языка добавляет дополнительный уровень сложности: аспекты, которые актуальны сегодня, могут перестать быть таковыми уже завтра
false
true
false
10,034
2026-02-24T09:43:33.901000Z
2026-02-24T09:43:33.901000Z
Lec.
Проблемы возникают при учете синонимов и полисемии , создании высококачественных размеченных наборов данных, а также поддержании актуальности в связи с появлением новых тем и терминов
false
true
false
10,033
2026-02-24T09:43:32.044000Z
2026-02-24T09:43:32.044000Z
Lec.
Объем и разнородность текстовых данных заставляют разработчиков систем обработки естественного языка (NLP) [3] сталкиваться с множеством сложных задач, включая неоднозначность языка, контекстуальную зависимость значений слов и выражений, а также формат и структуру входных данных
false
true
false
10,032
2026-02-24T09:43:30.254000Z
2026-02-24T09:43:30.254000Z
Lec.
Тем не менее, простая категоризация текстов по четко заданным темам или рубрикам уже не удовлетворяет современным требованиям, так как структуры текстов, их тематика и взаимосвязи между категориями становятся все более сложными
false
true
false
10,031
2026-02-24T09:43:28.429000Z
2026-02-24T09:43:28.429000Z
Lec.
Благодаря своей универсальности текстовая классификация находит применение в самых разных областях — от маркетинга и управления бизнес–процессами до медицины и фундаментальной науки, оставаясь востребованной и актуальной задачей в эпоху цифровой трансформации
false
true
false
10,030
2026-02-24T09:43:26.646000Z
2026-02-24T09:43:26.646000Z
Lec.
Помимо этого, классификация документов составляет основу современных интеллектуальных поисковых систем, повышая точность поиска и помогая пользователям получать релевантные результаты в соответствии с их потребностями
false
true
false
10,029
2026-02-24T09:43:24.860000Z
2026-02-24T09:43:24.860000Z
Lec.
В научной сфере классификация играет особенно важную роль, значительно ускоряя анализ научной литературы, структурирование публикаций и организацию исследовательских данных
false
true
false
10,028
2026-02-24T09:43:22.990000Z
2026-02-24T09:43:22.991000Z
Lec.
Классификация является одним из фундаментальных методов обработки больших массивов данных, поскольку она дает возможность систематизировать текстовую информацию, автоматически распределяя ее по заранее определенным тематическим категориям, рубрикам или иным смысловым маркерам
false
true
false
10,027
2026-02-24T09:43:21.186000Z
2026-02-24T09:43:21.186000Z
Lec.
Рисунок 1 – Количество публикация по теме нейронных сетей для работы с текстами
false
true
false
10,026
2026-02-24T09:43:19.296000Z
2026-02-24T09:43:19.296000Z
Lec.
Ниже представлен график роста объема научных работ по теме нейронных сетей в работе с текстами
false
false
false
10,025
2026-02-24T09:43:17.620000Z
2026-02-24T09:43:17.620000Z
Lec.
Новые архитектуры моделей открывают широкие возможности для работы с текстовыми данными
false
true
false
10,024
2026-02-24T09:43:15.847000Z
2026-02-24T09:43:15.847000Z
Lec.
Они используются в задачах генерации текста, NER [1], классификации текста [2], рекомендательные системы
false
false
false
10,023
2026-02-24T09:43:13.923000Z
2026-02-24T09:43:13.923000Z
Lec.
Одним из самых продвинутых способов с большими объемами текстов на данный момент являются нейронные сети
false
true
false
10,022
2026-02-24T09:43:12.163000Z
2026-02-24T09:43:12.163000Z
Lec.
Список литературы 43
false
false
false
10,021
2026-02-24T09:43:10.316000Z
2026-02-24T09:43:10.316000Z
Lec.
Параметры работы приложения 40
false
true
false
10,020
2026-02-24T09:43:08.656000Z
2026-02-24T09:43:08.656000Z
Lec.
Описание приложения 39. 5.3
false
true
false
10,019
2026-02-24T09:43:06.948000Z
2026-02-24T09:43:06.948000Z
Lec.
Консольное приложение 39. 5.2
false
false
false
10,018
2026-02-24T09:43:04.461000Z
2026-02-24T09:43:04.461000Z
Lec.
Оценка программы через иерархическую классификацию 38. 6
false
true
false
10,017
2026-02-24T09:43:02.707000Z
2026-02-24T09:43:02.707000Z
Lec.
Оценка программы по уровням 37. 5.2
false
true
false
10,016
2026-02-24T09:43:01.181000Z
2026-02-24T09:43:01.181000Z
Lec.
Итоговая оценка проекта 37. 5.1
false
true
false
10,015
2026-02-24T09:42:59.345000Z
2026-02-24T09:42:59.345000Z
Lec.
Классификатор Третьего уровня 32. 5
false
true
false
10,014
2026-02-24T09:42:57.820000Z
2026-02-24T09:42:57.820000Z
Lec.
Классификатор Второго уровня 29. 4.3
false
true
false
10,013
2026-02-24T09:42:55.940000Z
2026-02-24T09:42:55.940000Z
Lec.
Классификатор первого уровня 28. 4.2
false
true
false
10,012
2026-02-24T09:42:53.861000Z
2026-02-24T09:42:53.861000Z
Lec.
Создание Классификаторов 28. 4.1
false
true
false
10,011
2026-02-24T09:42:51.536000Z
2026-02-24T09:42:51.536000Z
Lec.
Преобразование данных 26. 4
false
true
false
10,010
2026-02-24T09:42:49.857000Z
2026-02-24T09:42:49.857000Z
Lec.
Распределение датасета 20. 3.2
false
true
false
10,009
2026-02-24T09:42:48.066000Z
2026-02-24T09:42:48.066000Z
Lec.
Работа с данными 20. 3.1
false
true
false
10,008
2026-02-24T09:42:45.985000Z
2026-02-24T09:42:45.985000Z
Lec.
Обзор методов регуляризации 18. 3
false
true
false