id
int64
18
21.1k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 16:54:39
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 16:54:39
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
10,207
2026-02-24T09:48:33.339000Z
2026-02-24T09:48:33.339000Z
Lec.
Токен является численным представлением слова или части слова для BERT
false
true
false
10,206
2026-02-24T09:48:31.631000Z
2026-02-24T09:48:31.631000Z
Lec.
Помимо распределения классов, нужно знать еще распределение длин токенов в датасете, чтобы правильно выбрать модель
false
true
false
10,205
2026-02-24T09:48:30.117000Z
2026-02-24T09:48:30.117000Z
Lec.
Рисунок 10 – Частота встречаемости в тренировочном наборе, уровень 1
false
true
false
10,204
2026-02-24T09:48:28.216000Z
2026-02-24T09:48:28.216000Z
Lec.
Рисунок 9 – Частота встречаемости в тренировочном наборе, уровень 2/3
false
false
false
10,203
2026-02-24T09:48:26.573000Z
2026-02-24T09:48:26.573000Z
Lec.
Ознакомится с распределением меток по первому уровня для двух получившихся датасетах можно на рисунках 8 и 9
false
true
false
10,202
2026-02-24T09:48:25.095000Z
2026-02-24T09:48:25.095000Z
Lec.
Для второго и третьего уровня, где дисбаланс велик, были удалены метки второго уровня, чья встречаемость в тексте была ниже 30, так как на третьем уровне классификатор не сможет классифицировать рубрики третьего уровня для таких срезов с таким количеством текстов
false
true
false
10,201
2026-02-24T09:48:23.470000Z
2026-02-24T09:48:23.470000Z
Lec.
Отличие набора для первого уровня состоит в том, что для самого большого класса 34 (биология) был сделан небольшой undersampling [37], с целью уменьшения дисбаланса
false
true
false
10,200
2026-02-24T09:48:21.705000Z
2026-02-24T09:48:21.705000Z
Lec.
В виду того, что новый датасет получился также с большим классовым дисбалансом, решено разделить его на 2 датасета для первого уровня, и для второго и третьего уровней
false
true
false
10,199
2026-02-24T09:48:20.075000Z
2026-02-24T09:48:20.075000Z
Lec.
Рисунок 8 – Частота встречаемости в тренировочном наборе
false
false
false
10,198
2026-02-24T09:48:17.922000Z
2026-02-24T09:48:17.922000Z
Lec.
Рисунок 7 – Частота встречаемости в объединенном наборе
false
true
false
10,197
2026-02-24T09:48:15.996000Z
2026-02-24T09:48:15.996000Z
Lec.
В рисунке ниже можно ознакомиться с итоговым распределением объединенного тренировочного датасета после аугментации текстов
false
true
false
10,196
2026-02-24T09:48:14.341000Z
2026-02-24T09:48:14.341000Z
Lec.
Для аугментации шести наименьших классов первого уровня потребовалось двое суток, ввиду чего не удалось аугментировать все классы первого уровня
false
true
false
10,195
2026-02-24T09:48:12.644000Z
2026-02-24T09:48:12.644000Z
Lec.
Среднее время запуска для одного текста (аннотация и название работы) занимает около 4 секунд с использованием видеокарты NVIDIA RTX 4090
false
true
false
10,194
2026-02-24T09:48:10.871000Z
2026-02-24T09:48:10.871000Z
Lec.
Несмотря на все преимущества, модель очень затратна по ресурсам
false
true
false
10,193
2026-02-24T09:48:09.306000Z
2026-02-24T09:48:09.306000Z
Lec.
Модель демонстрирует устойчивое качество аугментации, может обрабатывать аббревиатуры, числа, формулы, работает даже на больших текстах и сохраняет размер пересказанного предложения
false
true
false
10,192
2026-02-24T09:48:07.552000Z
2026-02-24T09:48:07.552000Z
Lec.
Перефразированное предложение: На основании существующей нормативной базы можно отметить, что один из способов взаимодействия государственного и делового партнерства является институт государственного и делового партнерства, способствующий привлечению дополнительных ресурсов к экономике, распределению рисков между государственным и деловым секторами, направлению усилий предпринимателей к решению экономических и социальных задач
false
true
false
10,191
2026-02-24T09:48:05.548000Z
2026-02-24T09:48:05.548000Z
Lec.
Исходное предложение: Отмечается, что одной из форм взаимодействия государства и бизнеса выступает институт государственно–частного партнерства (ГЧП), который позволяет привлечь в экономику дополнительные ресурсы, перераспределить риски между государством и предпринимательским сектором, направить усилия предпринимателей на. решение значимых для общества социально–экономических целей и задач
false
true
false
10,190
2026-02-24T09:48:03.682000Z
2026-02-24T09:48:03.682000Z
Lec.
Ниже представлен пример работы модели на реальном предложении из тренировочного датасета
false
true
false
10,189
2026-02-24T09:48:01.952000Z
2026-02-24T09:48:01.952000Z
Lec.
Аугментация запускалась сразу на объединенный текст названия и аннотации
false
true
false
10,188
2026-02-24T09:48:00.397000Z
2026-02-24T09:48:00.397000Z
Lec.
В ходе перебора гиперпараметров были выявлены следующие оптимальные значения:. num_beams – 9;. temperature – 0,75;. grams – 3;. max_length – 1,5 от исходного текста (тексты переменной длины)
false
true
false
10,187
2026-02-24T09:47:58.747000Z
2026-02-24T09:47:58.748000Z
Lec.
Модель имеет следующие гиперпараметры:. num_beams – количество гипотез, которые модель одновременно рассматривает при генерации текста, увеличивая качество за счет перебора вариантов. temperature – регулирует креативность модели: низкие значения делают вывод более детерминированным и консервативным, фокусируясь на самых вероятных вариантах, а высокие увеличивают случайность, добавляя разнообразия, но могут снижать точность. grams – контролирует максимальную длину последовательностей слов, которые модель учитывает для избегания повторений в сгенерированном тексте, предотвращая дублирование. max_ length – задает максимальную длину генерируемого текста в токенах, ограничивая вывод модели для соответствия требованиям к краткости или развернутости
false
true
false
10,186
2026-02-24T09:47:56.660000Z
2026-02-24T09:47:56.660000Z
Lec.
Эта модель создавалась на основе генеративной модели t5 от google для аугментации русских текстов
false
true
false
10,185
2026-02-24T09:47:54.917000Z
2026-02-24T09:47:54.917000Z
Lec.
Для аугментации использовалась модель cointegrated/rut5–base–paraphraser [36]
false
true
false
10,184
2026-02-24T09:47:53.122000Z
2026-02-24T09:47:53.122000Z
Lec.
Далее последние 6 классов были аугментированы
false
true
false
10,183
2026-02-24T09:47:51.633000Z
2026-02-24T09:47:51.633000Z
Lec.
Для частичного решения проблемы дисбаланса было принято решение удалить все классы с менее 500 строками, чтобы получилось 36 классов
false
true
false
10,182
2026-02-24T09:47:50.016000Z
2026-02-24T09:47:50.016000Z
Lec.
В ходе самого обучения тренировочный датасет также разбивается в соотношении 9 к 1 для обучения и валидации
false
true
false
10,181
2026-02-24T09:47:48.443000Z
2026-02-24T09:47:48.443000Z
Lec.
Получившийся тестовый датасет используется для оценки точности всей модели с помощью иерархической f1
false
true
false
10,180
2026-02-24T09:47:46.152000Z
2026-02-24T09:47:46.152000Z
Lec.
Ввиду избыточности тестового датасета было принято решение объединить их в один, а затем разделить в соотношении 9 к 1
false
true
false
10,179
2026-02-24T09:47:44.563000Z
2026-02-24T09:47:44.563000Z
Lec.
В каждом из датасетов находились коды ГРНТИ, которые не входили в выданный рубрикатор
false
true
false
10,178
2026-02-24T09:47:42.953000Z
2026-02-24T09:47:42.953000Z
Lec.
Датасеты не сбалансированы ни по одному из трех уровней рубрикатора
false
true
false
10,177
2026-02-24T09:47:41.341000Z
2026-02-24T09:47:41.341000Z
Lec.
Каждая строка содержит название, аннотацию, ключевые слова, разбивку по трем кодам
false
true
false
10,176
2026-02-24T09:47:39.348000Z
2026-02-24T09:47:39.348000Z
Lec.
Тренировочный датасет содержит 270000 строк, тестовый 150000 строк
false
true
false
10,175
2026-02-24T09:47:37.618000Z
2026-02-24T09:47:37.618000Z
Lec.
ВИНИТИ выдал 2 набора данных суммарно на около 420000 необработанных строк
false
true
false
10,174
2026-02-24T09:47:36.054000Z
2026-02-24T09:47:36.054000Z
Lec.
Это ограничивает сложность модели, предотвращая переобучение за счет уменьшения абсолютных значений весовых коэффициентов
false
true
false
10,173
2026-02-24T09:47:34.427000Z
2026-02-24T09:47:34.427000Z
Lec.
Важным инструментом является Weight Decay, Этот метод воздействует на функцию потерь, ввод штрафы за большие значения
false
true
false
10,172
2026-02-24T09:47:32.556000Z
2026-02-24T09:47:32.556000Z
Lec.
Это повышает качества предсказаний модели
false
true
false
10,171
2026-02-24T09:47:30.966000Z
2026-02-24T09:47:30.966000Z
Lec.
Сглаживание меток [35] – метод, при котором жесткие one–hot метки заменяются на вероятностные распределения по нескольким классам
false
true
false
10,170
2026-02-24T09:47:29.413000Z
2026-02-24T09:47:29.413000Z
Lec.
Такой подход позволяет снизить зависимость модели от конкретных весовых коэффициентов
false
true
false
10,169
2026-02-24T09:47:27.668000Z
2026-02-24T09:47:27.668000Z
Lec.
Схожим по действию является DropConnect [34] – модификация Dropout, где отключаются соединения между нейронами модели
false
true
false
10,168
2026-02-24T09:47:26.024000Z
2026-02-24T09:47:26.024000Z
Lec.
Метод Dropout [33] противодействует переобучению путем случайного исключения нейронов в процессе обучения, что уменьшает избыточную согласованность между ними и способствует выявлению более устойчивых признаков
false
true
false
10,167
2026-02-24T09:47:24.452000Z
2026-02-24T09:47:24.452000Z
Lec.
Еще одним классом методов для увеличения качества предсказаний модели является регуляризация
false
true
false
10,166
2026-02-24T09:47:22.828000Z
2026-02-24T09:47:22.828000Z
Lec.
Dice Loss изначально создавалась для классификации изображений, а Focal Loss дает ощутимые результаты только для больших дисбалансов классов
false
true
false
10,165
2026-02-24T09:47:21.238000Z
2026-02-24T09:47:21.238000Z
Lec.
Наилучшим выбором является функция Cross–Entropy, которая встроенна в AdamW
false
true
false
10,164
2026-02-24T09:47:19.304000Z
2026-02-24T09:47:19.304000Z
Lec.
Часто применяется в сегментации изображений, так как устойчива к дисбалансу классов и учитывает пересечение между предсказанием и истинной маской
false
true
false
10,163
2026-02-24T09:47:17.665000Z
2026-02-24T09:47:17.665000Z
Lec.
Dice Loss (DL) [32] – Основана на метрике Dice coefficient (аналогичной F1–score)
false
true
false
10,162
2026-02-24T09:47:15.732000Z
2026-02-24T09:47:15.732000Z
Lec.
Особенно полезна для экстремальных случаев дисбаланса
false
true
false
10,161
2026-02-24T09:47:14.143000Z
2026-02-24T09:47:14.143000Z
Lec.
Уменьшает вклад хорошо классифицируемых примеров, фокусируясь на сложных случаях
false
true
false
10,160
2026-02-24T09:47:12.613000Z
2026-02-24T09:47:12.613000Z
Lec.
Focal Loss (FL) [31] – Разработана для задач с экстремальным дисбалансом (например, детекция объектов)
false
true
false
10,159
2026-02-24T09:47:10.697000Z
2026-02-24T09:47:10.697000Z
Lec.
Требует ручного подбора или расчета весов
false
true
false
10,158
2026-02-24T09:47:09.114000Z
2026-02-24T09:47:09.114000Z
Lec.
Веса обычно задают обратно пропорционально частоте классов, что помогает модели лучше обучаться на миноритарных классах
false
true
false
10,157
2026-02-24T09:47:07.349000Z
2026-02-24T09:47:07.349000Z
Lec.
Weighted Cross–Entropy (WCE) [30] – Модификация CE с весами классов, позволяющая компенсировать дисбаланс
false
true
false
10,156
2026-02-24T09:47:05.403000Z
2026-02-24T09:47:05.403000Z
Lec.
Хорошо работает на сбалансированных данных, но при дисбалансе классов склонна игнорировать редкие классы
false
true
false
10,155
2026-02-24T09:47:03.761000Z
2026-02-24T09:47:03.761000Z
Lec.
Cross–Entropy (CE) [29] – Стандартная функция для классификации, измеряющая расхождение между предсказанными вероятностями и истинными метками
false
true
false
10,154
2026-02-24T09:47:02.001000Z
2026-02-24T09:47:02.001000Z
Lec.
Рассмотрим четыре ключевые функции: Cross–Entropy, Weighted Cross–Entropy, Focal Loss и Dice Loss
false
true
false
10,153
2026-02-24T09:47:00.284000Z
2026-02-24T09:47:00.284000Z
Lec.
В задачах классификации и сегментации выбор функции потерь (loss function) существенно влияет на качество модели
false
true
false
10,152
2026-02-24T09:46:58.553000Z
2026-02-24T09:46:58.553000Z
Lec.
По сравнению с другими классификаторами, AdamW сочетает преимущества адаптивного обучения (как Adam) с корректной обработкой weight decay, а также обеспечивает быструю сходимость, устойчивость к шуму в градиентах и хорошо работает даже с небольшими батчами. полезны в специфичных сценариях (экономия памяти или тонкая ручная настройка), но для большинства задач классификации AdamW остается оптимальным выбором
false
true
false
10,151
2026-02-24T09:46:56.952000Z
2026-02-24T09:46:56.952000Z
Lec.
В отличие от адаптивных методов, SGD менее склонен к застреванию в локальных минимумах благодаря инерции момента, но требует тщательного подбора learning rate и может обучаться медленнее, чем AdamW
false
true
false
10,150
2026-02-24T09:46:55.391000Z
2026-02-24T09:46:55.391000Z
Lec.
SGD [28] (Stochastic Gradient Descent) с моментом – классический оптимизатор, который иногда используется для BERT, особенно когда требуется более точный контроль над обучением
false
true
false
10,149
2026-02-24T09:46:53.623000Z
2026-02-24T09:46:53.623000Z
Lec.
Данный оптимизатор заточен под оптимизацию очень мощных языковых моделей, и обладает плохой сходимостью, поэтому уступает AdamW в нашей задаче
false
true
false
10,148
2026-02-24T09:46:52.082000Z
2026-02-24T09:46:52.082000Z
Lec.
Это значительно сокращает число обучаемых параметров ускоряя обучение и снижая требования к памяти, почти без потери качества
false
true
false
10,147
2026-02-24T09:46:50.333000Z
2026-02-24T09:46:50.333000Z
Lec.
Вместо полного обновления всех параметров LoRA замораживает исходные веса и обучает низкоранговые матрицы, которые добавляются к весам слоев внимания
false
true
false
10,146
2026-02-24T09:46:48.761000Z
2026-02-24T09:46:48.761000Z
Lec.
LoRA [27] – эффективный метод адаптации больших языковых моделей, включая BERT
false
true
false
10,145
2026-02-24T09:46:47.026000Z
2026-02-24T09:46:47.026000Z
Lec.
Это делает AdamW стандартным выбором для тонкой настройки BERT, так как он обеспечивает стабильное обучение
false
true
false
10,144
2026-02-24T09:46:45.278000Z
2026-02-24T09:46:45.278000Z
Lec.
В отличие от Adam, где L2–регуляризация применяется к градиентам, AdamW напрямую вычитает weight_decay [26] из весов, что улучшает сходимость и обобщение модели
false
true
false
10,143
2026-02-24T09:46:43.512000Z
2026-02-24T09:46:43.512000Z
Lec.
AdamW [25] – модификация классического Adam, исправляющая проблему несогласованности L2–регуляризации
false
true
false
10,142
2026-02-24T09:46:41.636000Z
2026-02-24T09:46:41.636000Z
Lec.
DeepPavlov/rubert–base–cased–sentence. 110 мс. 8 мс. 680 Мб. sentence–transformers/LaBSE. 120 мс. 8 мс. 1,8 Гб. sberbank–ai/sbert_large_nlu_ru. 420 мс. 16 мс. 1,6 Гб
false
false
false
10,141
2026-02-24T09:46:39.845000Z
2026-02-24T09:46:39.845000Z
Lec.
Rubert–tiny–2. 6 мс. 3 мс. 45 Мб. bert–base–multilingual–cased. 125 мс. 8 мс. 680 Мб
false
false
false
10,140
2026-02-24T09:46:38.022000Z
2026-02-24T09:46:38.022000Z
Lec.
Вес на диске
false
true
false
10,139
2026-02-24T09:46:36.438000Z
2026-02-24T09:46:36.438000Z
Lec.
Скорость (GPU)
false
true
false
10,138
2026-02-24T09:46:34.973000Z
2026-02-24T09:46:34.973000Z
Lec.
Скорость (CPU)
false
true
false
10,137
2026-02-24T09:46:33.326000Z
2026-02-24T09:46:33.326000Z
Lec.
Сравнение параметров моделей
false
true
false
10,136
2026-02-24T09:46:31.384000Z
2026-02-24T09:46:31.384000Z
Lec.
В Таблице 2 ниже представлены сравнительные характеристики BERT и TinyBERT
false
true
false
10,135
2026-02-24T09:46:29.719000Z
2026-02-24T09:46:29.719000Z
Lec.
Модель обучалась на ответах BERT–base–cased
false
true
false
10,134
2026-02-24T09:46:28.111000Z
2026-02-24T09:46:28.111000Z
Lec.
В сравнении с BERT, TinyBERT демонстрирует заметное сокращение размера модели, что способствует ускорению обучения при небольшом снижении точности
false
true
false
10,133
2026-02-24T09:46:26.370000Z
2026-02-24T09:46:26.370000Z
Lec.
Главная цель — уменьшить количество параметров и глубину слоев оригинального BERT без значительных потерь качества в задачах обработки естественного языка
false
true
false
10,132
2026-02-24T09:46:24.711000Z
2026-02-24T09:46:24.711000Z
Lec.
Она базируется на методе дистилляции и разрабатывалась для задач, где критически важны низкая латентность и ограниченные вычислительные ресурсы, такие как мобильные устройства, встроенные системы и сервисы реального времени, работающие в условиях строгих ограничений по памяти и скорости
false
true
false
10,131
2026-02-24T09:46:22.923000Z
2026-02-24T09:46:22.923000Z
Lec.
Наиболее известной такой моделью является TinyBERT [24]
false
true
false
10,130
2026-02-24T09:46:21.379000Z
2026-02-24T09:46:21.379000Z
Lec.
Она подразумевает обучение более простой модели на наборе данных, содержащем ответы более сложной модели
false
true
false
10,129
2026-02-24T09:46:19.618000Z
2026-02-24T09:46:19.618000Z
Lec.
Существует основной метод уменьшения размера и увеличения скорости моделей: дистилляция [22]
false
true
false
10,128
2026-02-24T09:46:17.682000Z
2026-02-24T09:46:17.682000Z
Lec.
Теперь обратим внимание на упрощенные модели трансформеров, которые могут использоваться в качестве второго уровня классификаторов
false
true
false
10,127
2026-02-24T09:46:16.074000Z
2026-02-24T09:46:16.074000Z
Lec.
XLNET–Caps. 0,68. 0,682
false
true
false
10,126
2026-02-24T09:46:14.238000Z
2026-02-24T09:46:14.238000Z
Lec.
XLNet. 0,592. 0,595
false
false
false
10,125
2026-02-24T09:46:12.519000Z
2026-02-24T09:46:12.519000Z
Lec.
RoBERTa–Caps. 0,644. 0,675
false
false
false
10,124
2026-02-24T09:46:10.777000Z
2026-02-24T09:46:10.777000Z
Lec.
ALBERT–Caps. 0,653. 0,685
false
true
false
10,123
2026-02-24T09:46:08.924000Z
2026-02-24T09:46:08.924000Z
Lec.
BERT. 0,59. 0,674
false
true
false
10,122
2026-02-24T09:46:07.038000Z
2026-02-24T09:46:07.038000Z
Lec.
LSTM. 0,552. 0,637
false
false
false
10,121
2026-02-24T09:46:05.333000Z
2026-02-24T09:46:05.333000Z
Lec.
SVM. 0,534. 0,608
false
false
false
10,120
2026-02-24T09:46:03.634000Z
2026-02-24T09:46:03.634000Z
Lec.
Сравнение метрик качества предсказаний
false
true
false
10,119
2026-02-24T09:46:01.344000Z
2026-02-24T09:46:01.344000Z
Lec.
В этой же работе в таблице 1 продемонстрировано полное превосходство XLNet над остальными моделями
false
true
false
10,118
2026-02-24T09:45:59.639000Z
2026-02-24T09:45:59.639000Z
Lec.
Недостатком этой модели является то, что она требует гораздо больше объемов памяти и на порядки больше вычислительных ресурсов, чем все остальные модели
false
true
false
10,117
2026-02-24T09:45:58.085000Z
2026-02-24T09:45:58.085000Z
Lec.
В работе [21] показано, что XLNet получает в задачах классификации такие же высокие результаты, как ROBERTa
false
true
false
10,116
2026-02-24T09:45:56.341000Z
2026-02-24T09:45:56.341000Z
Lec.
Рисунок 6 – Схема обучения
false
true
false
10,115
2026-02-24T09:45:54.578000Z
2026-02-24T09:45:54.578000Z
Lec.
Общая схема обучения XLNet представлена ниже
false
true
false
10,114
2026-02-24T09:45:52.939000Z
2026-02-24T09:45:52.939000Z
Lec.
Благодаря функционалу Transformer–XL, XLNet эффективно справляется с длинными текстами, суммированием и переводом, где важны связи между удаленными токенами
false
true
false
10,113
2026-02-24T09:45:51.194000Z
2026-02-24T09:45:51.194000Z
Lec.
Ключевым нововведением XLNet является Permutation Language Modeling (PLM) [20], благодаря которому модель лучше улавливает двунаправленный контекст, избегая прямого маскирования, как в BERT
false
true
false
10,112
2026-02-24T09:45:49.338000Z
2026-02-24T09:45:49.338000Z
Lec.
Эта модель объединяет идеи рекуррентных нейронных сетей (RNN) [19]
false
true
false
10,111
2026-02-24T09:45:47.415000Z
2026-02-24T09:45:47.415000Z
Lec.
Продвинутым трансформером следующего поколения является XLNet [18], разработанный компанией Google
false
true
false
10,110
2026-02-24T09:45:45.690000Z
2026-02-24T09:45:45.690000Z
Lec.
Несмотря на преимущества, у этой архитектуры есть недостаток — увеличенное время работы из-за дополнительного слоя
false
true
false
10,109
2026-02-24T09:45:44.077000Z
2026-02-24T09:45:44.077000Z
Lec.
В работе показано, что SBERT по точности классификации новостных заголовков превосходит BERT
false
true
false
10,108
2026-02-24T09:45:42.336000Z
2026-02-24T09:45:42.336000Z
Lec.
Сходство между предложениями определяется по косинусному расстоянию
false
true
false