id
int64
18
18.8k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 14:51:09
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 14:51:09
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
10,157
2026-02-24T09:47:07.349000Z
2026-02-24T09:47:07.349000Z
Lec.
Weighted Cross–Entropy (WCE) [30] – Модификация CE с весами классов, позволяющая компенсировать дисбаланс
false
true
false
10,156
2026-02-24T09:47:05.403000Z
2026-02-24T09:47:05.403000Z
Lec.
Хорошо работает на сбалансированных данных, но при дисбалансе классов склонна игнорировать редкие классы
false
true
false
10,155
2026-02-24T09:47:03.761000Z
2026-02-24T09:47:03.761000Z
Lec.
Cross–Entropy (CE) [29] – Стандартная функция для классификации, измеряющая расхождение между предсказанными вероятностями и истинными метками
false
true
false
10,154
2026-02-24T09:47:02.001000Z
2026-02-24T09:47:02.001000Z
Lec.
Рассмотрим четыре ключевые функции: Cross–Entropy, Weighted Cross–Entropy, Focal Loss и Dice Loss
false
true
false
10,153
2026-02-24T09:47:00.284000Z
2026-02-24T09:47:00.284000Z
Lec.
В задачах классификации и сегментации выбор функции потерь (loss function) существенно влияет на качество модели
false
true
false
10,152
2026-02-24T09:46:58.553000Z
2026-02-24T09:46:58.553000Z
Lec.
По сравнению с другими классификаторами, AdamW сочетает преимущества адаптивного обучения (как Adam) с корректной обработкой weight decay, а также обеспечивает быструю сходимость, устойчивость к шуму в градиентах и хорошо работает даже с небольшими батчами. полезны в специфичных сценариях (экономия памяти или тонкая ру...
false
true
false
10,151
2026-02-24T09:46:56.952000Z
2026-02-24T09:46:56.952000Z
Lec.
В отличие от адаптивных методов, SGD менее склонен к застреванию в локальных минимумах благодаря инерции момента, но требует тщательного подбора learning rate и может обучаться медленнее, чем AdamW
false
true
false
10,150
2026-02-24T09:46:55.391000Z
2026-02-24T09:46:55.391000Z
Lec.
SGD [28] (Stochastic Gradient Descent) с моментом – классический оптимизатор, который иногда используется для BERT, особенно когда требуется более точный контроль над обучением
false
true
false
10,149
2026-02-24T09:46:53.623000Z
2026-02-24T09:46:53.623000Z
Lec.
Данный оптимизатор заточен под оптимизацию очень мощных языковых моделей, и обладает плохой сходимостью, поэтому уступает AdamW в нашей задаче
false
true
false
10,148
2026-02-24T09:46:52.082000Z
2026-02-24T09:46:52.082000Z
Lec.
Это значительно сокращает число обучаемых параметров ускоряя обучение и снижая требования к памяти, почти без потери качества
false
true
false
10,147
2026-02-24T09:46:50.333000Z
2026-02-24T09:46:50.333000Z
Lec.
Вместо полного обновления всех параметров LoRA замораживает исходные веса и обучает низкоранговые матрицы, которые добавляются к весам слоев внимания
false
true
false
10,146
2026-02-24T09:46:48.761000Z
2026-02-24T09:46:48.761000Z
Lec.
LoRA [27] – эффективный метод адаптации больших языковых моделей, включая BERT
false
true
false
10,145
2026-02-24T09:46:47.026000Z
2026-02-24T09:46:47.026000Z
Lec.
Это делает AdamW стандартным выбором для тонкой настройки BERT, так как он обеспечивает стабильное обучение
false
true
false
10,144
2026-02-24T09:46:45.278000Z
2026-02-24T09:46:45.278000Z
Lec.
В отличие от Adam, где L2–регуляризация применяется к градиентам, AdamW напрямую вычитает weight_decay [26] из весов, что улучшает сходимость и обобщение модели
false
true
false
10,143
2026-02-24T09:46:43.512000Z
2026-02-24T09:46:43.512000Z
Lec.
AdamW [25] – модификация классического Adam, исправляющая проблему несогласованности L2–регуляризации
false
true
false
10,142
2026-02-24T09:46:41.636000Z
2026-02-24T09:46:41.636000Z
Lec.
DeepPavlov/rubert–base–cased–sentence. 110 мс. 8 мс. 680 Мб. sentence–transformers/LaBSE. 120 мс. 8 мс. 1,8 Гб. sberbank–ai/sbert_large_nlu_ru. 420 мс. 16 мс. 1,6 Гб
false
false
false
10,141
2026-02-24T09:46:39.845000Z
2026-02-24T09:46:39.845000Z
Lec.
Rubert–tiny–2. 6 мс. 3 мс. 45 Мб. bert–base–multilingual–cased. 125 мс. 8 мс. 680 Мб
false
false
false
10,140
2026-02-24T09:46:38.022000Z
2026-02-24T09:46:38.022000Z
Lec.
Вес на диске
false
true
false
10,139
2026-02-24T09:46:36.438000Z
2026-02-24T09:46:36.438000Z
Lec.
Скорость (GPU)
false
true
false
10,138
2026-02-24T09:46:34.973000Z
2026-02-24T09:46:34.973000Z
Lec.
Скорость (CPU)
false
true
false
10,137
2026-02-24T09:46:33.326000Z
2026-02-24T09:46:33.326000Z
Lec.
Сравнение параметров моделей
false
true
false
10,136
2026-02-24T09:46:31.384000Z
2026-02-24T09:46:31.384000Z
Lec.
В Таблице 2 ниже представлены сравнительные характеристики BERT и TinyBERT
false
true
false
10,135
2026-02-24T09:46:29.719000Z
2026-02-24T09:46:29.719000Z
Lec.
Модель обучалась на ответах BERT–base–cased
false
true
false
10,134
2026-02-24T09:46:28.111000Z
2026-02-24T09:46:28.111000Z
Lec.
В сравнении с BERT, TinyBERT демонстрирует заметное сокращение размера модели, что способствует ускорению обучения при небольшом снижении точности
false
true
false
10,133
2026-02-24T09:46:26.370000Z
2026-02-24T09:46:26.370000Z
Lec.
Главная цель — уменьшить количество параметров и глубину слоев оригинального BERT без значительных потерь качества в задачах обработки естественного языка
false
true
false
10,132
2026-02-24T09:46:24.711000Z
2026-02-24T09:46:24.711000Z
Lec.
Она базируется на методе дистилляции и разрабатывалась для задач, где критически важны низкая латентность и ограниченные вычислительные ресурсы, такие как мобильные устройства, встроенные системы и сервисы реального времени, работающие в условиях строгих ограничений по памяти и скорости
false
true
false
10,131
2026-02-24T09:46:22.923000Z
2026-02-24T09:46:22.923000Z
Lec.
Наиболее известной такой моделью является TinyBERT [24]
false
true
false
10,130
2026-02-24T09:46:21.379000Z
2026-02-24T09:46:21.379000Z
Lec.
Она подразумевает обучение более простой модели на наборе данных, содержащем ответы более сложной модели
false
true
false
10,129
2026-02-24T09:46:19.618000Z
2026-02-24T09:46:19.618000Z
Lec.
Существует основной метод уменьшения размера и увеличения скорости моделей: дистилляция [22]
false
true
false
10,128
2026-02-24T09:46:17.682000Z
2026-02-24T09:46:17.682000Z
Lec.
Теперь обратим внимание на упрощенные модели трансформеров, которые могут использоваться в качестве второго уровня классификаторов
false
true
false
10,127
2026-02-24T09:46:16.074000Z
2026-02-24T09:46:16.074000Z
Lec.
XLNET–Caps. 0,68. 0,682
false
true
false
10,126
2026-02-24T09:46:14.238000Z
2026-02-24T09:46:14.238000Z
Lec.
XLNet. 0,592. 0,595
false
false
false
10,125
2026-02-24T09:46:12.519000Z
2026-02-24T09:46:12.519000Z
Lec.
RoBERTa–Caps. 0,644. 0,675
false
false
false
10,124
2026-02-24T09:46:10.777000Z
2026-02-24T09:46:10.777000Z
Lec.
ALBERT–Caps. 0,653. 0,685
false
true
false
10,123
2026-02-24T09:46:08.924000Z
2026-02-24T09:46:08.924000Z
Lec.
BERT. 0,59. 0,674
false
true
false
10,122
2026-02-24T09:46:07.038000Z
2026-02-24T09:46:07.038000Z
Lec.
LSTM. 0,552. 0,637
false
false
false
10,121
2026-02-24T09:46:05.333000Z
2026-02-24T09:46:05.333000Z
Lec.
SVM. 0,534. 0,608
false
false
false
10,120
2026-02-24T09:46:03.634000Z
2026-02-24T09:46:03.634000Z
Lec.
Сравнение метрик качества предсказаний
false
true
false
10,119
2026-02-24T09:46:01.344000Z
2026-02-24T09:46:01.344000Z
Lec.
В этой же работе в таблице 1 продемонстрировано полное превосходство XLNet над остальными моделями
false
true
false
10,118
2026-02-24T09:45:59.639000Z
2026-02-24T09:45:59.639000Z
Lec.
Недостатком этой модели является то, что она требует гораздо больше объемов памяти и на порядки больше вычислительных ресурсов, чем все остальные модели
false
true
false
10,117
2026-02-24T09:45:58.085000Z
2026-02-24T09:45:58.085000Z
Lec.
В работе [21] показано, что XLNet получает в задачах классификации такие же высокие результаты, как ROBERTa
false
true
false
10,116
2026-02-24T09:45:56.341000Z
2026-02-24T09:45:56.341000Z
Lec.
Рисунок 6 – Схема обучения
false
true
false
10,115
2026-02-24T09:45:54.578000Z
2026-02-24T09:45:54.578000Z
Lec.
Общая схема обучения XLNet представлена ниже
false
true
false
10,114
2026-02-24T09:45:52.939000Z
2026-02-24T09:45:52.939000Z
Lec.
Благодаря функционалу Transformer–XL, XLNet эффективно справляется с длинными текстами, суммированием и переводом, где важны связи между удаленными токенами
false
true
false
10,113
2026-02-24T09:45:51.194000Z
2026-02-24T09:45:51.194000Z
Lec.
Ключевым нововведением XLNet является Permutation Language Modeling (PLM) [20], благодаря которому модель лучше улавливает двунаправленный контекст, избегая прямого маскирования, как в BERT
false
true
false
10,112
2026-02-24T09:45:49.338000Z
2026-02-24T09:45:49.338000Z
Lec.
Эта модель объединяет идеи рекуррентных нейронных сетей (RNN) [19]
false
true
false
10,111
2026-02-24T09:45:47.415000Z
2026-02-24T09:45:47.415000Z
Lec.
Продвинутым трансформером следующего поколения является XLNet [18], разработанный компанией Google
false
true
false
10,110
2026-02-24T09:45:45.690000Z
2026-02-24T09:45:45.690000Z
Lec.
Несмотря на преимущества, у этой архитектуры есть недостаток — увеличенное время работы из-за дополнительного слоя
false
true
false
10,109
2026-02-24T09:45:44.077000Z
2026-02-24T09:45:44.077000Z
Lec.
В работе показано, что SBERT по точности классификации новостных заголовков превосходит BERT
false
true
false
10,108
2026-02-24T09:45:42.336000Z
2026-02-24T09:45:42.336000Z
Lec.
Сходство между предложениями определяется по косинусному расстоянию
false
true
false
10,107
2026-02-24T09:45:40.507000Z
2026-02-24T09:45:40.507000Z
Lec.
В SBERT добавлен специальный слой, который преобразует последовательность токенов в единый вектор (обычно с использованием mean–pooling по последнему скрытому слою)
false
true
false
10,106
2026-02-24T09:45:38.940000Z
2026-02-24T09:45:38.940000Z
Lec.
Эта архитектура предназначена для работы с предложениями, а не с отдельными словами
false
true
false
10,105
2026-02-24T09:45:37.294000Z
2026-02-24T09:45:37.294000Z
Lec.
Другим методом оптимизации трансформеров является Sentence BERT (SBERT) [17]
false
true
false
10,104
2026-02-24T09:45:35.572000Z
2026-02-24T09:45:35.572000Z
Lec.
В работе наглядно показывается, что RoBERTa превосходит традиционные трансформеры с фиксированным маскированием
false
true
false
10,103
2026-02-24T09:45:33.857000Z
2026-02-24T09:45:33.857000Z
Lec.
Эти изменения дают преимущества по сравнению с обычным BERT
false
true
false
10,102
2026-02-24T09:45:32.247000Z
2026-02-24T09:45:32.247000Z
Lec.
RoBERTa более тщательно подбирает гиперпараметры [16], включая более высокие learning rates на начальных этапах, что положительно сказывается на качестве
false
true
false
10,101
2026-02-24T09:45:30.493000Z
2026-02-24T09:45:30.493000Z
Lec.
На каждом шаге обучения (batch) маски меняются, что дает модели возможность «угадывать» большее разнообразие скрытых токенов в разных контекстах. 3
false
true
false
10,100
2026-02-24T09:45:28.917000Z
2026-02-24T09:45:28.917000Z
Lec.
Модель обучалась на более крупных и разнообразных датасетах (например, Common Crawl, Reddit и др.), что позволило улучшить ее обобщающие способности. 2
false
true
false
10,099
2026-02-24T09:45:27.140000Z
2026-02-24T09:45:27.140000Z
Lec.
Основные отличия заключаются в следующем:. 1
false
true
false
10,098
2026-02-24T09:45:25.293000Z
2026-02-24T09:45:25.293000Z
Lec.
Усовершенствованной версией BERT является RoBERTa (Robustly Optimized BERT Approach) [15]
false
true
false
10,097
2026-02-24T09:45:23.365000Z
2026-02-24T09:45:23.365000Z
Lec.
BERT показывает более высокую точность предсказаний по сравнению с устаревшими методами обработки текста
false
true
false
10,096
2026-02-24T09:45:21.615000Z
2026-02-24T09:45:21.615000Z
Lec.
В работе продемонстрировано применение BERT для мультиклассового распознавания текстов
false
true
false
10,095
2026-02-24T09:45:19.880000Z
2026-02-24T09:45:19.880000Z
Lec.
Эта модель была представлена в 2019 году и считается эталоном для сравнения всех остальных архитектур
false
true
false
10,094
2026-02-24T09:45:18.185000Z
2026-02-24T09:45:18.185000Z
Lec.
Первой и наиболее известной моделью на основе трансформеров является BERT, которая одинаково успешно справляется с задачами классификации
false
true
false
10,093
2026-02-24T09:45:16.450000Z
2026-02-24T09:45:16.450000Z
Lec.
Рисунок 5 – Общая архитектура трансформеров
false
true
false
10,092
2026-02-24T09:45:14.874000Z
2026-02-24T09:45:14.874000Z
Lec.
Для улучшения стабильности и ускорения обучения внедряются нормализация слоев и регуляризация L2 [14]
false
true
false
10,091
2026-02-24T09:45:13.016000Z
2026-02-24T09:45:13.016000Z
Lec.
За слоем самовнимания располагается блок сети с прямой передачей, который обрабатывает выходное представление каждой лексемы независимо
false
true
false
10,090
2026-02-24T09:45:11.241000Z
2026-02-24T09:45:11.241000Z
Lec.
Для каждой головы внимания применяется своя матрица для векторов запроса (Q), ключа (K) и значения (V), что помогает модели выявлять разные языковые зависимости
false
true
false
10,089
2026-02-24T09:45:09.653000Z
2026-02-24T09:45:09.653000Z
Lec.
Ключевым элементом кодера является многоголовый механизм самовнимания [13], позволяющий модулю внимания одновременно рассматривать различные аспекты взаимодействия лексем
false
true
false
10,088
2026-02-24T09:45:07.886000Z
2026-02-24T09:45:07.886000Z
Lec.
Декодер генерирует выходную последовательность поэтапно, опираясь на закодированное представление кодера
false
true
false
10,087
2026-02-24T09:45:06.289000Z
2026-02-24T09:45:06.289000Z
Lec.
Кодер принимает последовательность лексем и формирует для каждой из них скрытое представление, учитывающее контекст остальных лексем
false
true
false
10,086
2026-02-24T09:45:04.666000Z
2026-02-24T09:45:04.666000Z
Lec.
В стандартной модели трансформер делится на две части: кодер и декодер
false
true
false
10,085
2026-02-24T09:45:02.854000Z
2026-02-24T09:45:02.854000Z
Lec.
Общая структура трансформеров показана на рисунке 2
false
true
false
10,084
2026-02-24T09:45:01.319000Z
2026-02-24T09:45:01.319000Z
Lec.
Ключевое достоинство трансформеров заключается в возможности каждого токена из входной последовательности (например, слова или его части) взаимодействовать с другими токенами, не прибегая к последовательной обработке, как это делается в рекуррентных сетях
false
true
false
10,083
2026-02-24T09:44:59.524000Z
2026-02-24T09:44:59.524000Z
Lec.
Трансформеры первого поколения основываются на принципе отказа от рекуррентных и сверточных [12] механизмов, акцентируя внимание на многоголовом внимании
false
true
false
10,082
2026-02-24T09:44:57.960000Z
2026-02-24T09:44:57.960000Z
Lec.
К наиболее популярным относятся трансформеры и сочетания текстовых векторизаторов [11] с регрессионными моделями
false
true
false
10,081
2026-02-24T09:44:56.232000Z
2026-02-24T09:44:56.232000Z
Lec.
На сегодняшний день имеется множество архитектур для классификации текстовых данных
false
true
false
10,080
2026-02-24T09:44:54.504000Z
2026-02-24T09:44:54.504000Z
Lec.
Облачные сервисы не позволяют развертывать модель локально, а также требуют постоянной оплаты
false
true
false
10,079
2026-02-24T09:44:52.952000Z
2026-02-24T09:44:52.952000Z
Lec.
Таким образом, не существует полноценного инструмента, который мог бы полноценно классифицировать текста по рубрикатору ГРНТИ без требования подключения к интернету и соблюдения условий конфиденциальности данных
false
true
false
10,078
2026-02-24T09:44:51.153000Z
2026-02-24T09:44:51.153000Z
Lec.
Стоит отметить, что у этой платформы есть ограничение на объем данных, которые могут быть обработаны одновременно
false
true
false
10,077
2026-02-24T09:44:49.330000Z
2026-02-24T09:44:49.330000Z
Lec.
В сервисе присутствует возможность разрабатывать индивидуальные модели на основе своих данных, что позволяет получать более точные результаты
false
true
false
10,076
2026-02-24T09:44:47.475000Z
2026-02-24T09:44:47.475000Z
Lec.
MonkeyLearn [10] – платформа для машинного обучения, которая предназначена для классификации текстов с помощью заранее обученных моделей
false
true
false
10,075
2026-02-24T09:44:45.720000Z
2026-02-24T09:44:45.720000Z
Lec.
В нашем случае использование облачных платформ нарушает принцип конфиденциальности, который является требованием к ПО
false
true
false
10,074
2026-02-24T09:44:44.020000Z
2026-02-24T09:44:44.020000Z
Lec.
С их помощью возможно создавать модели классификации для выявления тем в данных
false
true
false
10,073
2026-02-24T09:44:42.083000Z
2026-02-24T09:44:42.083000Z
Lec.
IBM Watson [9] – многозадачная облачная платформа, имеет широкий ассортимент работы с данными, в том числе классификации текстов
false
true
false
10,072
2026-02-24T09:44:40.304000Z
2026-02-24T09:44:40.304000Z
Lec.
В итоге результаты были недостаточно высоки с учетом существовавших на тот момент технологий
false
true
false
10,071
2026-02-24T09:44:38.570000Z
2026-02-24T09:44:38.570000Z
Lec.
В отличие от подхода в этой работе, где для каждого кода ГРНТИ на втором и третьем уровне создается своя модель, здесь есть одна модель только для каждого конкретного уровня
false
true
false
10,070
2026-02-24T09:44:36.938000Z
2026-02-24T09:44:36.938000Z
Lec.
Для каждого уровня используется одна модель
false
true
false
10,069
2026-02-24T09:44:35.451000Z
2026-02-24T09:44:35.451000Z
Lec.
Он был выполнен на языке Python в виде консольного приложения с трехуровневой классификацией, используя стандартную модель Bidirectional Encoder Representations from Transformers (BERT) [8] в связке с рекуррентными моделями
false
true
false
10,068
2026-02-24T09:44:33.590000Z
2026-02-24T09:44:33.590000Z
Lec.
Классификатор кодов ГРНТИ Всероссийского Института Научной и Технической Информации, для замены которого создается эта разработка
false
true
false
10,067
2026-02-24T09:44:31.595000Z
2026-02-24T09:44:31.595000Z
Lec.
На данный момент существует огромное количество классификаторов текстов, которые подходят под заданные критерии: иерархичность классификации, работа с большими текстами, возможность присвоения нескольких категорий одному тексту
false
true
false
10,066
2026-02-24T09:44:29.967000Z
2026-02-24T09:44:29.967000Z
Lec.
Итоговая программа должна работать на персональном компьютере на ОС Windows 11 с 16 ГБ ОЗУ, 4 ядерным процессором, время полного прохода одного текста не должно превышать 6 секунд
false
true
false
10,065
2026-02-24T09:44:28.188000Z
2026-02-24T09:44:28.188000Z
Lec.
Для этого планируется применять мягкая классификация на втором и третьем уровне, каждый из них сможет выдавать по 2 класса в зависимости от степени уверенности, который ввел пользователь (от 0 до 1)
false
true
false
10,064
2026-02-24T09:44:25.770000Z
2026-02-24T09:44:25.770000Z
Lec.
Разработанный ансамбль должен также поддерживать нежесткую классификацию для второго и третьего уровня, так как научная работа может потенциально относиться к двум и более типам научных работ
false
true
false
10,063
2026-02-24T09:44:24.149000Z
2026-02-24T09:44:24.149000Z
Lec.
Рисунок 4 – Общая схема программы
false
true
false
10,062
2026-02-24T09:44:22.264000Z
2026-02-24T09:44:22.264000Z
Lec.
Примерная схема классификатора отображена на рисунке ниже
false
true
false
10,061
2026-02-24T09:44:20.301000Z
2026-02-24T09:44:20.301000Z
Lec.
Программа для второго и третьего уровня выбирает, какая модель запускается, исходя из предсказаний модели выше
false
true
false
10,060
2026-02-24T09:44:18.772000Z
2026-02-24T09:44:18.772000Z
Lec.
Модели второго и третьего уровней обучаются на конкретных поднаборах данных
false
true
false
10,059
2026-02-24T09:44:17.014000Z
2026-02-24T09:44:17.014000Z
Lec.
На третьем уровне планируется применять линейный векторизатор с простой моделью классификатора
false
true
false
10,058
2026-02-24T09:44:15.489000Z
2026-02-24T09:44:15.489000Z
Lec.
В этой работе на первом уровне располагается мощная модель классификации, на втором – меньшие модели с трансформенной [7] архитектурой
false
true
false