id
int64
18
18.8k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 14:51:09
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 14:51:09
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
10,257
2026-02-24T09:50:01.831000Z
2026-02-24T09:50:01.831000Z
Lec.
Это модели rubert–tiny–turbo и rubert–tiny2 [42] из первого классификатора
false
true
false
10,256
2026-02-24T09:50:00.077000Z
2026-02-24T09:50:00.077000Z
Lec.
Ввиду необходимой быстроты обработки текста, а также экономии размеров итогового приложения, было принято решение использовать на втором уровне маленькие модели BERT на основе технологии дистиляции [41]
false
true
false
10,255
2026-02-24T09:49:58.321000Z
2026-02-24T09:49:58.321000Z
Lec.
Это позволило поднять f1 weighted/macro/micro на 2 процентных пункта
false
false
false
10,254
2026-02-24T09:49:56.508000Z
2026-02-24T09:49:56.508000Z
Lec.
Для batch size: batch size;
false
true
false
10,253
2026-02-24T09:49:54.885000Z
2026-02-24T09:49:54.885000Z
Lec.
Для weight decay: 0,009, 0,01, 0,03, 0,05;
false
false
false
10,252
2026-02-24T09:49:53.393000Z
2026-02-24T09:49:53.393000Z
Lec.
Для learning rate: 8e–6, 1e–5, 3e–5;
false
true
false
10,251
2026-02-24T09:49:51.418000Z
2026-02-24T09:49:51.418000Z
Lec.
Для Grid Search использовались следующие варианты параметров:
false
true
false
10,250
2026-02-24T09:49:49.970000Z
2026-02-24T09:49:49.970000Z
Lec.
Это learning rate, batch size, weight decay для оптимизатора AdamW
false
false
false
10,249
2026-02-24T09:49:48.247000Z
2026-02-24T09:49:48.247000Z
Lec.
Для улучшения метрик качества для моделей первого и второго уровня принято использовать Grid Search [40], который используется для подбора гиперпараметров модели
false
true
false
10,248
2026-02-24T09:49:46.498000Z
2026-02-24T09:49:46.498000Z
Lec.
Результаты получились немного неожиданными, поскольку эта модель смогла обогнать RoBERTa
false
true
false
10,247
2026-02-24T09:49:44.666000Z
2026-02-24T09:49:44.666000Z
Lec.
Как мы видим, победителем стало ai–forever/sbert_large_nlu_ru от разработчиков СБЕР на основе архитектуры SBERT
false
true
false
10,246
2026-02-24T09:49:42.913000Z
2026-02-24T09:49:42.913000Z
Lec.
Размер батча. токены. rubert–base–cased–sentence. 0,6578. 0,6128. 0,6606. 16. 512. rubert–base–cased. 0,6670. 0,6298. 0,6691. 16. 512. bert–base–multilingual–cased. 0,6354. 0,5756. 0,6432. 16. 512. ai–forever/ruElectra–medium. 0,4937. 0,3376. 0,5338. 16. 512. ai–forever/sbert_large_nlu_ru. 0,6813. 0,6454. 0,6846. 16. 5...
false
false
false
10,245
2026-02-24T09:49:40.911000Z
2026-02-24T09:49:40.911000Z
Lec.
Название модели. weighted. macro. micro
false
false
false
10,244
2026-02-24T09:49:39.187000Z
2026-02-24T09:49:39.187000Z
Lec.
Сравнение различных моделей для первого уровня
false
true
false
10,243
2026-02-24T09:49:37.689000Z
2026-02-24T09:49:37.690000Z
Lec.
Результат эксперимента можно увидеть ниже в таблице
false
true
false
10,242
2026-02-24T09:49:35.847000Z
2026-02-24T09:49:35.847000Z
Lec.
Мультиязычная модель от google представлена в качестве эталона
false
true
false
10,241
2026-02-24T09:49:34.236000Z
2026-02-24T09:49:34.236000Z
Lec.
Поскольку они используют более мощные токенизаторы [39] и могут принимать до 2048 токенов, для них было выставлено значение в 700 токенов
false
true
false
10,240
2026-02-24T09:49:32.478000Z
2026-02-24T09:49:32.478000Z
Lec.
Количество токенов для всех моделей выставлялось предельное – 512, кроме двух последних
false
true
false
10,239
2026-02-24T09:49:30.970000Z
2026-02-24T09:49:30.970000Z
Lec.
Для избежания случайных колебаний метрик качества каждая модель запускалась по 2 раза на разных начальных значениях, значения усреднялись
true
true
false
10,238
2026-02-24T09:49:28.828000Z
2026-02-24T09:49:28.828000Z
Lec.
Каждая модель обучалась на 2 эпохах, для каждой модели были выставлены одни и те же гиперпараметры
false
true
false
10,237
2026-02-24T09:49:27.249000Z
2026-02-24T09:49:27.249000Z
Lec.
Тестирование проводилось следующим образом: для каждой модели в целях экономии памяти брался срез датасета в 20% с таким же распределением классов, как и в оригинале, для честности эксперимента
false
true
false
10,236
2026-02-24T09:49:25.399000Z
2026-02-24T09:49:25.399000Z
Lec.
Следовательно, здесь нужно использовать наиболее мощные из доступных моделей классификации
true
true
false
10,235
2026-02-24T09:49:23.600000Z
2026-02-24T09:49:23.600000Z
Lec.
Поскольку используется иерархическая классификация, итоговая точность очень сильно зависит от показателей характеристики именно первого уровня
true
true
false
10,234
2026-02-24T09:49:21.799000Z
2026-02-24T09:49:21.799000Z
Lec.
Итоговая схема преобразование текста выглядит следующим образом:. удаление пунктуации. понижение регистра. 3) удаление незначимых слов (например, предлогов) библиотекой nltk. 4) Лемматизация. 5) обработка химических и физических формул библиотекой RDKIT. 6) удаление оставшихся чисел. 7) удаление оставшихся не текстовых...
false
false
false
10,233
2026-02-24T09:49:19.944000Z
2026-02-24T09:49:19.944000Z
Lec.
Кроме того, такая предобработка позволяет модели лучше фокусироваться на семантике текста, а не на числовых значениях
false
true
false
10,232
2026-02-24T09:49:18.304000Z
2026-02-24T09:49:18.304000Z
Lec.
Исходя из проделанного эксперимента можно сделать вывод, что для трансформеров важна обработка формул и удаление чисел, поскольку это снижает шум в данных и улучшает понимание структурных зависимостей
false
true
false
10,231
2026-02-24T09:49:16.572000Z
2026-02-24T09:49:16.572000Z
Lec.
С обработкой формул и чисел. 0,9157. 0,8923. 0,9154
false
false
false
10,230
2026-02-24T09:49:14.829000Z
2026-02-24T09:49:14.829000Z
Lec.
Без обработки формул и чисел. 0,8945. 0,8615. 0,8962
false
false
false
10,229
2026-02-24T09:49:13.219000Z
2026-02-24T09:49:13.219000Z
Lec.
F1–weighted
false
false
false
10,228
2026-02-24T09:49:11.607000Z
2026-02-24T09:49:11.607000Z
Lec.
Тип датасета
false
false
false
10,227
2026-02-24T09:49:09.646000Z
2026-02-24T09:49:09.646000Z
Lec.
Результат обучения с разной обработкой текста
false
true
false
10,226
2026-02-24T09:49:07.599000Z
2026-02-24T09:49:07.599000Z
Lec.
Результаты приведены ниже
false
true
false
10,225
2026-02-24T09:49:05.145000Z
2026-02-24T09:49:05.145000Z
Lec.
Сравнение шло по трем видам метрики F1
false
true
false
10,224
2026-02-24T09:49:03.014000Z
2026-02-24T09:49:03.014000Z
Lec.
Для теста была взята модель трансформера rubert–tiny2 и срез массива второго уровня под номер 44 (энергетика), так как в этом разделе как раз встречаются формулы в аннотации
false
true
false
10,223
2026-02-24T09:49:01.474000Z
2026-02-24T09:49:01.474000Z
Lec.
Найденные формулы
false
false
false
10,222
2026-02-24T09:48:59.856000Z
2026-02-24T09:48:59.856000Z
Lec.
Она позволяет находить различные вариации формул (в том числе химические брутто и нетто формулы в тексте)
false
true
false
10,221
2026-02-24T09:48:58.333000Z
2026-02-24T09:48:58.333000Z
Lec.
Формулы обрабатывались с помощью библиотеки RDKIT [38]
false
true
false
10,220
2026-02-24T09:48:56.795000Z
2026-02-24T09:48:56.795000Z
Lec.
Поскольку текст научных аннотаций сложен, имелось предположение, что не нужно удалять числа и обрабатывать формулы, а оставить как есть в виду того, что они могли нести дополнительную информацию о специфике темы
false
true
false
10,219
2026-02-24T09:48:55.128000Z
2026-02-24T09:48:55.128000Z
Lec.
Он учитывает грамматические характеристики слова, такие как его часть речи, и позволяет преобразовать вариации слова в базовую форму
false
true
false
10,218
2026-02-24T09:48:52.840000Z
2026-02-24T09:48:52.840000Z
Lec.
Это процесс приведения слова к его начальной форме, называемой леммой
false
true
false
10,217
2026-02-24T09:48:51.074000Z
2026-02-24T09:48:51.074000Z
Lec.
Для аннотации и названия научных работ использовалась лемматизацию
false
true
false
10,216
2026-02-24T09:48:48.614000Z
2026-02-24T09:48:48.614000Z
Lec.
Также удалялись числа. замена формул специальными метками
false
false
false
10,215
2026-02-24T09:48:46.785000Z
2026-02-24T09:48:46.785000Z
Lec.
Для улучшения обработки текста трансформенными моделями прибегают к ряду методик для уменьшения количество незначащих токенов: приведение текста к нижнему регистру, удаление всех знаков препинания, удаление незначащих или коротких слов (например, предлогов)
false
true
false
10,214
2026-02-24T09:48:45.154000Z
2026-02-24T09:48:45.154000Z
Lec.
Таким образом, не нужно использовать какие – либо дополнительные методы по типу укорачивания строк или их рассечения на несколько
false
true
false
10,213
2026-02-24T09:48:43.507000Z
2026-02-24T09:48:43.507000Z
Lec.
Из получившихся распределений для различных классификаторов видно, что русскоязычные модели в целом обрабатывают почти все тексты
false
true
false
10,212
2026-02-24T09:48:41.942000Z
2026-02-24T09:48:41.942000Z
Lec.
Рисунок 12 – Распределение токенов в тренировочном датасете, rubert–tiny–turbo
false
false
false
10,211
2026-02-24T09:48:40.098000Z
2026-02-24T09:48:40.098000Z
Lec.
Рисунок 11 – Распределение токенов в тренировочном датасете, DeepPavlov/rubert-base-cased
false
true
false
10,210
2026-02-24T09:48:38.200000Z
2026-02-24T09:48:38.200000Z
Lec.
Распределения для датасета первого уровня представлено на рисунке 9 и 10
false
true
false
10,209
2026-02-24T09:48:36.555000Z
2026-02-24T09:48:36.555000Z
Lec.
Если токенизатор создаст больше токенов, чем может принять модель, классификатор не сможет уловить все слова и потеряет часть признаков
false
true
false
10,208
2026-02-24T09:48:34.933000Z
2026-02-24T09:48:34.933000Z
Lec.
Все модели имеют ограничение по количеству токенов, которое они могут принять на вход
false
true
false
10,207
2026-02-24T09:48:33.339000Z
2026-02-24T09:48:33.339000Z
Lec.
Токен является численным представлением слова или части слова для BERT
false
true
false
10,206
2026-02-24T09:48:31.631000Z
2026-02-24T09:48:31.631000Z
Lec.
Помимо распределения классов, нужно знать еще распределение длин токенов в датасете, чтобы правильно выбрать модель
false
true
false
10,205
2026-02-24T09:48:30.117000Z
2026-02-24T09:48:30.117000Z
Lec.
Рисунок 10 – Частота встречаемости в тренировочном наборе, уровень 1
false
true
false
10,204
2026-02-24T09:48:28.216000Z
2026-02-24T09:48:28.216000Z
Lec.
Рисунок 9 – Частота встречаемости в тренировочном наборе, уровень 2/3
false
false
false
10,203
2026-02-24T09:48:26.573000Z
2026-02-24T09:48:26.573000Z
Lec.
Ознакомится с распределением меток по первому уровня для двух получившихся датасетах можно на рисунках 8 и 9
false
true
false
10,202
2026-02-24T09:48:25.095000Z
2026-02-24T09:48:25.095000Z
Lec.
Для второго и третьего уровня, где дисбаланс велик, были удалены метки второго уровня, чья встречаемость в тексте была ниже 30, так как на третьем уровне классификатор не сможет классифицировать рубрики третьего уровня для таких срезов с таким количеством текстов
false
true
false
10,201
2026-02-24T09:48:23.470000Z
2026-02-24T09:48:23.470000Z
Lec.
Отличие набора для первого уровня состоит в том, что для самого большого класса 34 (биология) был сделан небольшой undersampling [37], с целью уменьшения дисбаланса
false
true
false
10,200
2026-02-24T09:48:21.705000Z
2026-02-24T09:48:21.705000Z
Lec.
В виду того, что новый датасет получился также с большим классовым дисбалансом, решено разделить его на 2 датасета для первого уровня, и для второго и третьего уровней
false
true
false
10,199
2026-02-24T09:48:20.075000Z
2026-02-24T09:48:20.075000Z
Lec.
Рисунок 8 – Частота встречаемости в тренировочном наборе
false
false
false
10,198
2026-02-24T09:48:17.922000Z
2026-02-24T09:48:17.922000Z
Lec.
Рисунок 7 – Частота встречаемости в объединенном наборе
false
true
false
10,197
2026-02-24T09:48:15.996000Z
2026-02-24T09:48:15.996000Z
Lec.
В рисунке ниже можно ознакомиться с итоговым распределением объединенного тренировочного датасета после аугментации текстов
false
true
false
10,196
2026-02-24T09:48:14.341000Z
2026-02-24T09:48:14.341000Z
Lec.
Для аугментации шести наименьших классов первого уровня потребовалось двое суток, ввиду чего не удалось аугментировать все классы первого уровня
false
true
false
10,195
2026-02-24T09:48:12.644000Z
2026-02-24T09:48:12.644000Z
Lec.
Среднее время запуска для одного текста (аннотация и название работы) занимает около 4 секунд с использованием видеокарты NVIDIA RTX 4090
false
true
false
10,194
2026-02-24T09:48:10.871000Z
2026-02-24T09:48:10.871000Z
Lec.
Несмотря на все преимущества, модель очень затратна по ресурсам
false
true
false
10,193
2026-02-24T09:48:09.306000Z
2026-02-24T09:48:09.306000Z
Lec.
Модель демонстрирует устойчивое качество аугментации, может обрабатывать аббревиатуры, числа, формулы, работает даже на больших текстах и сохраняет размер пересказанного предложения
false
true
false
10,192
2026-02-24T09:48:07.552000Z
2026-02-24T09:48:07.552000Z
Lec.
Перефразированное предложение: На основании существующей нормативной базы можно отметить, что один из способов взаимодействия государственного и делового партнерства является институт государственного и делового партнерства, способствующий привлечению дополнительных ресурсов к экономике, распределению рисков между госу...
false
true
false
10,191
2026-02-24T09:48:05.548000Z
2026-02-24T09:48:05.548000Z
Lec.
Исходное предложение: Отмечается, что одной из форм взаимодействия государства и бизнеса выступает институт государственно–частного партнерства (ГЧП), который позволяет привлечь в экономику дополнительные ресурсы, перераспределить риски между государством и предпринимательским сектором, направить усилия предпринимателе...
false
true
false
10,190
2026-02-24T09:48:03.682000Z
2026-02-24T09:48:03.682000Z
Lec.
Ниже представлен пример работы модели на реальном предложении из тренировочного датасета
false
true
false
10,189
2026-02-24T09:48:01.952000Z
2026-02-24T09:48:01.952000Z
Lec.
Аугментация запускалась сразу на объединенный текст названия и аннотации
false
true
false
10,188
2026-02-24T09:48:00.397000Z
2026-02-24T09:48:00.397000Z
Lec.
В ходе перебора гиперпараметров были выявлены следующие оптимальные значения:. num_beams – 9;. temperature – 0,75;. grams – 3;. max_length – 1,5 от исходного текста (тексты переменной длины)
false
true
false
10,187
2026-02-24T09:47:58.747000Z
2026-02-24T09:47:58.748000Z
Lec.
Модель имеет следующие гиперпараметры:. num_beams – количество гипотез, которые модель одновременно рассматривает при генерации текста, увеличивая качество за счет перебора вариантов. temperature – регулирует креативность модели: низкие значения делают вывод более детерминированным и консервативным, фокусируясь на самы...
false
true
false
10,186
2026-02-24T09:47:56.660000Z
2026-02-24T09:47:56.660000Z
Lec.
Эта модель создавалась на основе генеративной модели t5 от google для аугментации русских текстов
false
true
false
10,185
2026-02-24T09:47:54.917000Z
2026-02-24T09:47:54.917000Z
Lec.
Для аугментации использовалась модель cointegrated/rut5–base–paraphraser [36]
false
true
false
10,184
2026-02-24T09:47:53.122000Z
2026-02-24T09:47:53.122000Z
Lec.
Далее последние 6 классов были аугментированы
false
true
false
10,183
2026-02-24T09:47:51.633000Z
2026-02-24T09:47:51.633000Z
Lec.
Для частичного решения проблемы дисбаланса было принято решение удалить все классы с менее 500 строками, чтобы получилось 36 классов
false
true
false
10,182
2026-02-24T09:47:50.016000Z
2026-02-24T09:47:50.016000Z
Lec.
В ходе самого обучения тренировочный датасет также разбивается в соотношении 9 к 1 для обучения и валидации
false
true
false
10,181
2026-02-24T09:47:48.443000Z
2026-02-24T09:47:48.443000Z
Lec.
Получившийся тестовый датасет используется для оценки точности всей модели с помощью иерархической f1
false
true
false
10,180
2026-02-24T09:47:46.152000Z
2026-02-24T09:47:46.152000Z
Lec.
Ввиду избыточности тестового датасета было принято решение объединить их в один, а затем разделить в соотношении 9 к 1
false
true
false
10,179
2026-02-24T09:47:44.563000Z
2026-02-24T09:47:44.563000Z
Lec.
В каждом из датасетов находились коды ГРНТИ, которые не входили в выданный рубрикатор
false
true
false
10,178
2026-02-24T09:47:42.953000Z
2026-02-24T09:47:42.953000Z
Lec.
Датасеты не сбалансированы ни по одному из трех уровней рубрикатора
false
true
false
10,177
2026-02-24T09:47:41.341000Z
2026-02-24T09:47:41.341000Z
Lec.
Каждая строка содержит название, аннотацию, ключевые слова, разбивку по трем кодам
false
true
false
10,176
2026-02-24T09:47:39.348000Z
2026-02-24T09:47:39.348000Z
Lec.
Тренировочный датасет содержит 270000 строк, тестовый 150000 строк
false
true
false
10,175
2026-02-24T09:47:37.618000Z
2026-02-24T09:47:37.618000Z
Lec.
ВИНИТИ выдал 2 набора данных суммарно на около 420000 необработанных строк
false
true
false
10,174
2026-02-24T09:47:36.054000Z
2026-02-24T09:47:36.054000Z
Lec.
Это ограничивает сложность модели, предотвращая переобучение за счет уменьшения абсолютных значений весовых коэффициентов
false
true
false
10,173
2026-02-24T09:47:34.427000Z
2026-02-24T09:47:34.427000Z
Lec.
Важным инструментом является Weight Decay, Этот метод воздействует на функцию потерь, ввод штрафы за большие значения
false
true
false
10,172
2026-02-24T09:47:32.556000Z
2026-02-24T09:47:32.556000Z
Lec.
Это повышает качества предсказаний модели
false
true
false
10,171
2026-02-24T09:47:30.966000Z
2026-02-24T09:47:30.966000Z
Lec.
Сглаживание меток [35] – метод, при котором жесткие one–hot метки заменяются на вероятностные распределения по нескольким классам
false
true
false
10,170
2026-02-24T09:47:29.413000Z
2026-02-24T09:47:29.413000Z
Lec.
Такой подход позволяет снизить зависимость модели от конкретных весовых коэффициентов
false
true
false
10,169
2026-02-24T09:47:27.668000Z
2026-02-24T09:47:27.668000Z
Lec.
Схожим по действию является DropConnect [34] – модификация Dropout, где отключаются соединения между нейронами модели
false
true
false
10,168
2026-02-24T09:47:26.024000Z
2026-02-24T09:47:26.024000Z
Lec.
Метод Dropout [33] противодействует переобучению путем случайного исключения нейронов в процессе обучения, что уменьшает избыточную согласованность между ними и способствует выявлению более устойчивых признаков
false
true
false
10,167
2026-02-24T09:47:24.452000Z
2026-02-24T09:47:24.452000Z
Lec.
Еще одним классом методов для увеличения качества предсказаний модели является регуляризация
false
true
false
10,166
2026-02-24T09:47:22.828000Z
2026-02-24T09:47:22.828000Z
Lec.
Dice Loss изначально создавалась для классификации изображений, а Focal Loss дает ощутимые результаты только для больших дисбалансов классов
false
true
false
10,165
2026-02-24T09:47:21.238000Z
2026-02-24T09:47:21.238000Z
Lec.
Наилучшим выбором является функция Cross–Entropy, которая встроенна в AdamW
false
true
false
10,164
2026-02-24T09:47:19.304000Z
2026-02-24T09:47:19.304000Z
Lec.
Часто применяется в сегментации изображений, так как устойчива к дисбалансу классов и учитывает пересечение между предсказанием и истинной маской
false
true
false
10,163
2026-02-24T09:47:17.665000Z
2026-02-24T09:47:17.665000Z
Lec.
Dice Loss (DL) [32] – Основана на метрике Dice coefficient (аналогичной F1–score)
false
true
false
10,162
2026-02-24T09:47:15.732000Z
2026-02-24T09:47:15.732000Z
Lec.
Особенно полезна для экстремальных случаев дисбаланса
false
true
false
10,161
2026-02-24T09:47:14.143000Z
2026-02-24T09:47:14.143000Z
Lec.
Уменьшает вклад хорошо классифицируемых примеров, фокусируясь на сложных случаях
false
true
false
10,160
2026-02-24T09:47:12.613000Z
2026-02-24T09:47:12.613000Z
Lec.
Focal Loss (FL) [31] – Разработана для задач с экстремальным дисбалансом (например, детекция объектов)
false
true
false
10,159
2026-02-24T09:47:10.697000Z
2026-02-24T09:47:10.697000Z
Lec.
Требует ручного подбора или расчета весов
false
true
false
10,158
2026-02-24T09:47:09.114000Z
2026-02-24T09:47:09.114000Z
Lec.
Веса обычно задают обратно пропорционально частоте классов, что помогает модели лучше обучаться на миноритарных классах
false
true
false