id
int64
18
21.1k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 16:54:39
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 16:54:39
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
10,307
2026-02-24T09:51:26.873000Z
2026-02-24T09:51:26.873000Z
Lec.
Это означает, что модели стали значительно лучше предсказывают маленькие рубрики
false
true
false
10,306
2026-02-24T09:51:25.125000Z
2026-02-24T09:51:25.125000Z
Lec.
Для f1_macro прирост составляет от 3 до 5 процентов
false
true
false
10,305
2026-02-24T09:51:23.420000Z
2026-02-24T09:51:23.420000Z
Lec.
Из результатов, мы получили прирост от 1.5 до 3 процентов для f1_weighted и f1_micro для каждого датасета второго уровня из представленных
false
true
false
10,304
2026-02-24T09:51:21.743000Z
2026-02-24T09:51:21.743000Z
Lec.
CE_weighted. 0,3. 0,407
false
false
false
10,303
2026-02-24T09:51:20.028000Z
2026-02-24T09:51:20.028000Z
Lec.
CE_weighted. 0,2. 0,178. 68. 0,7931. 0,7000. 0,7868
false
false
false
10,302
2026-02-24T09:51:18.217000Z
2026-02-24T09:51:18.217000Z
Lec.
CE_weighted. 0,3. 0,466. 65. 0,8784. 0,8342. 0,8822
false
false
false
10,301
2026-02-24T09:51:16.402000Z
2026-02-24T09:51:16.402000Z
Lec.
CE_weighted. 0,3. 0,466. 76. 0,9014. 0,8908. 0,9014
false
false
false
10,300
2026-02-24T09:51:14.677000Z
2026-02-24T09:51:14.677000Z
Lec.
CE_weighted. 0,3. 0,487. 50. 0,5610. 0,5187. 0,5670
false
false
false
10,299
2026-02-24T09:51:13.153000Z
2026-02-24T09:51:13.153000Z
Lec.
CE_weighted. 0,3. 0,411. 87. 0,6309. 0,4864. 0,6345
false
false
false
10,298
2026-02-24T09:51:11.417000Z
2026-02-24T09:51:11.417000Z
Lec.
CE_weighted. 0,3. 0,338. 31. 0,8953. 0,7564. 0,8956
false
false
false
10,297
2026-02-24T09:51:09.650000Z
2026-02-24T09:51:09.650000Z
Lec.
CE_weighted. 0,2. 0,179. 06. 0,7675. 0,7010. 0,7710
false
false
false
10,296
2026-02-24T09:51:07.919000Z
2026-02-24T09:51:07.919000Z
Lec.
CE_weighted. 0,2. 0,214. 47. 0,7905. 0,5871. 0,8002
false
false
false
10,295
2026-02-24T09:51:06.195000Z
2026-02-24T09:51:06.195000Z
Lec.
Метрики моделей второго уровня с модернизированной функцией потерь. номер среза. f1_weighted. f1_macro. f1_micro. функция потерь. alpha. ratio. 34. 0,8402. 0,6951. 0,8411
false
false
false
10,294
2026-02-24T09:51:04.255000Z
2026-02-24T09:51:04.255000Z
Lec.
Ниже представлена таблица с модернизированной функцией потерь с подобранными alpha.y
false
true
false
10,293
2026-02-24T09:51:02.735000Z
2026-02-24T09:51:02.735000Z
Lec.
CE. 68. 0,7851. 0,6872. 0,7823
false
false
false
10,292
2026-02-24T09:51:01.309000Z
2026-02-24T09:51:01.309000Z
Lec.
CE. 65. 0,8690. 0,8194. 0,8736
false
false
false
10,291
2026-02-24T09:50:59.596000Z
2026-02-24T09:50:59.596000Z
Lec.
CE. 76. 0,8935. 0,8740. 0,8978
false
false
false
10,290
2026-02-24T09:50:57.970000Z
2026-02-24T09:50:57.970000Z
Lec.
CE. 50. 0,5176. 0,4862. 0,5322
false
false
false
10,289
2026-02-24T09:50:56.251000Z
2026-02-24T09:50:56.251000Z
Lec.
CE. 87. 0,6309. 0,4864. 0,6345
false
false
false
10,288
2026-02-24T09:50:54.834000Z
2026-02-24T09:50:54.834000Z
Lec.
CE. 31. 0,8855. 0,7498. 0,8864
false
false
false
10,287
2026-02-24T09:50:53.289000Z
2026-02-24T09:50:53.289000Z
Lec.
CE. 06. 0,7673. 0,7021. 0,7665
false
false
false
10,286
2026-02-24T09:50:51.684000Z
2026-02-24T09:50:51.684000Z
Lec.
CE. 47. 0,7675. 0,5779. 0,7798
false
false
false
10,285
2026-02-24T09:50:49.789000Z
2026-02-24T09:50:49.789000Z
Lec.
Функция потерь. 34. 0,8205. 0,6547. 0,8214
false
false
false
10,284
2026-02-24T09:50:48.347000Z
2026-02-24T09:50:48.347000Z
Lec.
Номер среза. f1_weighted. f1_macro. f1_micro
false
false
false
10,283
2026-02-24T09:50:46.706000Z
2026-02-24T09:50:46.706000Z
Lec.
Метрики моделей второго уровня со стандартной функцией потерь
false
true
false
10,282
2026-02-24T09:50:44.857000Z
2026-02-24T09:50:44.857000Z
Lec.
Ниже приведена таблица со стандартной функцией потерь
false
true
false
10,281
2026-02-24T09:50:43.369000Z
2026-02-24T09:50:43.369000Z
Lec.
Методом перебора было выявлено, что пороговым
false
true
false
10,280
2026-02-24T09:50:41.761000Z
2026-02-24T09:50:41.761000Z
Lec.
Для его расчета была введена переменная ratio – отношение наибольшего класса ко всему датасету
false
true
false
10,279
2026-02-24T09:50:39.669000Z
2026-02-24T09:50:39.669000Z
Lec.
Параметр подбирается перебором
false
true
false
10,278
2026-02-24T09:50:38.208000Z
2026-02-24T09:50:38.208000Z
Lec.
У нее есть гиперпараметр alpha, который отвечает за степень, в которую возводятся значения вектора соотношений классов
false
true
false
10,277
2026-02-24T09:50:36.564000Z
2026-02-24T09:50:36.564000Z
Lec.
Ввиду того, что каждый датасет внутри имеет разнообразный дисбаланс классов, было принято решение использовать модернизированную функцию потерь Cross entropy weighted, описанная ранее
false
true
false
10,276
2026-02-24T09:50:34.758000Z
2026-02-24T09:50:34.758000Z
Lec.
Таким образом мы получили разбиение по 4 длинам датасета: от 2 до 10 тысяч, от 10 до 20 тысяч, до 30 тысяч, и выше 30 000 тысяч
false
true
false
10,275
2026-02-24T09:50:33.150000Z
2026-02-24T09:50:33.150000Z
Lec.
Оптимальные параметры: weight decay: 0,005, batch size: 8, learning rate 6e–5
false
false
false
10,274
2026-02-24T09:50:31.314000Z
2026-02-24T09:50:31.314000Z
Lec.
Размер 32889
false
false
false
10,273
2026-02-24T09:50:29.779000Z
2026-02-24T09:50:29.779000Z
Lec.
Оптимальные параметры: weight_decay 0,007, batch size: 8, learning rate 1e–4. 34 – Биология
false
true
false
10,272
2026-02-24T09:50:28.054000Z
2026-02-24T09:50:28.054000Z
Lec.
Размер 11082
false
false
false
10,271
2026-02-24T09:50:26.503000Z
2026-02-24T09:50:26.503000Z
Lec.
Оптимальные параметры: weight decay 0,05, batch size: 10, learning rate 3e–4. 06 – Экономика и экономические науки
false
true
false
10,270
2026-02-24T09:50:24.718000Z
2026-02-24T09:50:24.718000Z
Lec.
Размер 3473
false
false
false
10,269
2026-02-24T09:50:23.178000Z
2026-02-24T09:50:23.179000Z
Lec.
Оптимальные параметры: weight decay 0,05, batch size: 10, learning rate 8e–5. 65 – Пищевая промышленность
false
true
false
10,268
2026-02-24T09:50:21.575000Z
2026-02-24T09:50:21.576000Z
Lec.
Размер 20719
false
false
false
10,267
2026-02-24T09:50:20.012000Z
2026-02-24T09:50:20.012000Z
Lec.
Для тестирования выбрали следующие классы второго уровня:. 31 – Химия
false
true
false
10,266
2026-02-24T09:50:18.445000Z
2026-02-24T09:50:18.445000Z
Lec.
Значения для learning rate отличаются от предыдущей модели первого уровня, в связи с разницей в их размерах
false
true
false
10,265
2026-02-24T09:50:16.697000Z
2026-02-24T09:50:16.697000Z
Lec.
Параметры поиска следующие:. learning rate: 6e–5, 8e–5, 1e–4, 3e–4;. weight decay: 0,007, 0.009, 0,01, 0,03, 0,05;. batch size: 6, 8, 10, 12, 16
false
false
false
10,264
2026-02-24T09:50:15.125000Z
2026-02-24T09:50:15.125000Z
Lec.
В виду того, что размер датасетов разный и варьируется от 20 000 до 60 000, было принято сделать grid search для четырех разных срезов датасета с разным количеством строк
true
true
false
10,263
2026-02-24T09:50:13.018000Z
2026-02-24T09:50:13.018000Z
Lec.
Также как и для второго уровня, здесь был применен метод Grid Search по тем же параметрам
false
true
false
10,262
2026-02-24T09:50:11.503000Z
2026-02-24T09:50:11.503000Z
Lec.
Исходя из результатов, лучшим выбором с незначительным перевесом является модель rubert–tiny–turbo
false
true
false
10,261
2026-02-24T09:50:09.978000Z
2026-02-24T09:50:09.978000Z
Lec.
Rubert–tiny. 0,887. 0,852. 0,889
false
true
false
10,260
2026-02-24T09:50:08.085000Z
2026-02-24T09:50:08.085000Z
Lec.
Название модели. f1–weighted. f1–macro. f1–micro. rubert–tiny–turbo. 0,920. 0,891. 0,920. rubert–tiny2. 0,911. 0,873. 0,910
false
false
false
10,259
2026-02-24T09:50:06.286000Z
2026-02-24T09:50:06.286000Z
Lec.
Сравнение моделей второго уровня
false
true
false
10,258
2026-02-24T09:50:04.076000Z
2026-02-24T09:50:04.076000Z
Lec.
Ниже в таблице 3 приведены результаты тестирования на одном из 40 классов первого уровня, длинной 11459 строк в течение 2 эпох
false
false
false
10,257
2026-02-24T09:50:01.831000Z
2026-02-24T09:50:01.831000Z
Lec.
Это модели rubert–tiny–turbo и rubert–tiny2 [42] из первого классификатора
false
true
false
10,256
2026-02-24T09:50:00.077000Z
2026-02-24T09:50:00.077000Z
Lec.
Ввиду необходимой быстроты обработки текста, а также экономии размеров итогового приложения, было принято решение использовать на втором уровне маленькие модели BERT на основе технологии дистиляции [41]
false
true
false
10,255
2026-02-24T09:49:58.321000Z
2026-02-24T09:49:58.321000Z
Lec.
Это позволило поднять f1 weighted/macro/micro на 2 процентных пункта
false
false
false
10,254
2026-02-24T09:49:56.508000Z
2026-02-24T09:49:56.508000Z
Lec.
Для batch size: batch size;
false
true
false
10,253
2026-02-24T09:49:54.885000Z
2026-02-24T09:49:54.885000Z
Lec.
Для weight decay: 0,009, 0,01, 0,03, 0,05;
false
false
false
10,252
2026-02-24T09:49:53.393000Z
2026-02-24T09:49:53.393000Z
Lec.
Для learning rate: 8e–6, 1e–5, 3e–5;
false
true
false
10,251
2026-02-24T09:49:51.418000Z
2026-02-24T09:49:51.418000Z
Lec.
Для Grid Search использовались следующие варианты параметров:
false
true
false
10,250
2026-02-24T09:49:49.970000Z
2026-02-24T09:49:49.970000Z
Lec.
Это learning rate, batch size, weight decay для оптимизатора AdamW
false
false
false
10,249
2026-02-24T09:49:48.247000Z
2026-02-24T09:49:48.247000Z
Lec.
Для улучшения метрик качества для моделей первого и второго уровня принято использовать Grid Search [40], который используется для подбора гиперпараметров модели
false
true
false
10,248
2026-02-24T09:49:46.498000Z
2026-02-24T09:49:46.498000Z
Lec.
Результаты получились немного неожиданными, поскольку эта модель смогла обогнать RoBERTa
false
true
false
10,247
2026-02-24T09:49:44.666000Z
2026-02-24T09:49:44.666000Z
Lec.
Как мы видим, победителем стало ai–forever/sbert_large_nlu_ru от разработчиков СБЕР на основе архитектуры SBERT
false
true
false
10,246
2026-02-24T09:49:42.913000Z
2026-02-24T09:49:42.913000Z
Lec.
Размер батча. токены. rubert–base–cased–sentence. 0,6578. 0,6128. 0,6606. 16. 512. rubert–base–cased. 0,6670. 0,6298. 0,6691. 16. 512. bert–base–multilingual–cased. 0,6354. 0,5756. 0,6432. 16. 512. ai–forever/ruElectra–medium. 0,4937. 0,3376. 0,5338. 16. 512. ai–forever/sbert_large_nlu_ru. 0,6813. 0,6454. 0,6846. 16. 512. ai–forever/ruRoberta–large. 0,6712. 0,6442. 0,6766. 16. 512. ruberta–large. 0,6741. 0,6444. 0,6797. 16. 512. rubert–tiny–turbo. 0,6509. 0,5991. 0,6585. 24. 700. rubert–tiny–2. 0,6660. 0,6305. 0,6698. 16. 700
false
false
false
10,245
2026-02-24T09:49:40.911000Z
2026-02-24T09:49:40.911000Z
Lec.
Название модели. weighted. macro. micro
false
false
false
10,244
2026-02-24T09:49:39.187000Z
2026-02-24T09:49:39.187000Z
Lec.
Сравнение различных моделей для первого уровня
false
true
false
10,243
2026-02-24T09:49:37.689000Z
2026-02-24T09:49:37.690000Z
Lec.
Результат эксперимента можно увидеть ниже в таблице
false
true
false
10,242
2026-02-24T09:49:35.847000Z
2026-02-24T09:49:35.847000Z
Lec.
Мультиязычная модель от google представлена в качестве эталона
false
true
false
10,241
2026-02-24T09:49:34.236000Z
2026-02-24T09:49:34.236000Z
Lec.
Поскольку они используют более мощные токенизаторы [39] и могут принимать до 2048 токенов, для них было выставлено значение в 700 токенов
false
true
false
10,240
2026-02-24T09:49:32.478000Z
2026-02-24T09:49:32.478000Z
Lec.
Количество токенов для всех моделей выставлялось предельное – 512, кроме двух последних
false
true
false
10,239
2026-02-24T09:49:30.970000Z
2026-02-24T09:49:30.970000Z
Lec.
Для избежания случайных колебаний метрик качества каждая модель запускалась по 2 раза на разных начальных значениях, значения усреднялись
true
true
false
10,238
2026-02-24T09:49:28.828000Z
2026-02-24T09:49:28.828000Z
Lec.
Каждая модель обучалась на 2 эпохах, для каждой модели были выставлены одни и те же гиперпараметры
false
true
false
10,237
2026-02-24T09:49:27.249000Z
2026-02-24T09:49:27.249000Z
Lec.
Тестирование проводилось следующим образом: для каждой модели в целях экономии памяти брался срез датасета в 20% с таким же распределением классов, как и в оригинале, для честности эксперимента
false
true
false
10,236
2026-02-24T09:49:25.399000Z
2026-02-24T09:49:25.399000Z
Lec.
Следовательно, здесь нужно использовать наиболее мощные из доступных моделей классификации
true
true
false
10,235
2026-02-24T09:49:23.600000Z
2026-02-24T09:49:23.600000Z
Lec.
Поскольку используется иерархическая классификация, итоговая точность очень сильно зависит от показателей характеристики именно первого уровня
true
true
false
10,234
2026-02-24T09:49:21.799000Z
2026-02-24T09:49:21.799000Z
Lec.
Итоговая схема преобразование текста выглядит следующим образом:. удаление пунктуации. понижение регистра. 3) удаление незначимых слов (например, предлогов) библиотекой nltk. 4) Лемматизация. 5) обработка химических и физических формул библиотекой RDKIT. 6) удаление оставшихся чисел. 7) удаление оставшихся не текстовых символов. 8) выделение ключевых слов в аннотации и тексте специальными токеном[special] по бокам. 9) формирование одной строки из названия и аннотации
false
false
false
10,233
2026-02-24T09:49:19.944000Z
2026-02-24T09:49:19.944000Z
Lec.
Кроме того, такая предобработка позволяет модели лучше фокусироваться на семантике текста, а не на числовых значениях
false
true
false
10,232
2026-02-24T09:49:18.304000Z
2026-02-24T09:49:18.304000Z
Lec.
Исходя из проделанного эксперимента можно сделать вывод, что для трансформеров важна обработка формул и удаление чисел, поскольку это снижает шум в данных и улучшает понимание структурных зависимостей
false
true
false
10,231
2026-02-24T09:49:16.572000Z
2026-02-24T09:49:16.572000Z
Lec.
С обработкой формул и чисел. 0,9157. 0,8923. 0,9154
false
false
false
10,230
2026-02-24T09:49:14.829000Z
2026-02-24T09:49:14.829000Z
Lec.
Без обработки формул и чисел. 0,8945. 0,8615. 0,8962
false
false
false
10,229
2026-02-24T09:49:13.219000Z
2026-02-24T09:49:13.219000Z
Lec.
F1–weighted
false
false
false
10,228
2026-02-24T09:49:11.607000Z
2026-02-24T09:49:11.607000Z
Lec.
Тип датасета
false
false
false
10,227
2026-02-24T09:49:09.646000Z
2026-02-24T09:49:09.646000Z
Lec.
Результат обучения с разной обработкой текста
false
true
false
10,226
2026-02-24T09:49:07.599000Z
2026-02-24T09:49:07.599000Z
Lec.
Результаты приведены ниже
false
true
false
10,225
2026-02-24T09:49:05.145000Z
2026-02-24T09:49:05.145000Z
Lec.
Сравнение шло по трем видам метрики F1
false
true
false
10,224
2026-02-24T09:49:03.014000Z
2026-02-24T09:49:03.014000Z
Lec.
Для теста была взята модель трансформера rubert–tiny2 и срез массива второго уровня под номер 44 (энергетика), так как в этом разделе как раз встречаются формулы в аннотации
false
true
false
10,223
2026-02-24T09:49:01.474000Z
2026-02-24T09:49:01.474000Z
Lec.
Найденные формулы
false
false
false
10,222
2026-02-24T09:48:59.856000Z
2026-02-24T09:48:59.856000Z
Lec.
Она позволяет находить различные вариации формул (в том числе химические брутто и нетто формулы в тексте)
false
true
false
10,221
2026-02-24T09:48:58.333000Z
2026-02-24T09:48:58.333000Z
Lec.
Формулы обрабатывались с помощью библиотеки RDKIT [38]
false
true
false
10,220
2026-02-24T09:48:56.795000Z
2026-02-24T09:48:56.795000Z
Lec.
Поскольку текст научных аннотаций сложен, имелось предположение, что не нужно удалять числа и обрабатывать формулы, а оставить как есть в виду того, что они могли нести дополнительную информацию о специфике темы
false
true
false
10,219
2026-02-24T09:48:55.128000Z
2026-02-24T09:48:55.128000Z
Lec.
Он учитывает грамматические характеристики слова, такие как его часть речи, и позволяет преобразовать вариации слова в базовую форму
false
true
false
10,218
2026-02-24T09:48:52.840000Z
2026-02-24T09:48:52.840000Z
Lec.
Это процесс приведения слова к его начальной форме, называемой леммой
false
true
false
10,217
2026-02-24T09:48:51.074000Z
2026-02-24T09:48:51.074000Z
Lec.
Для аннотации и названия научных работ использовалась лемматизацию
false
true
false
10,216
2026-02-24T09:48:48.614000Z
2026-02-24T09:48:48.614000Z
Lec.
Также удалялись числа. замена формул специальными метками
false
false
false
10,215
2026-02-24T09:48:46.785000Z
2026-02-24T09:48:46.785000Z
Lec.
Для улучшения обработки текста трансформенными моделями прибегают к ряду методик для уменьшения количество незначащих токенов: приведение текста к нижнему регистру, удаление всех знаков препинания, удаление незначащих или коротких слов (например, предлогов)
false
true
false
10,214
2026-02-24T09:48:45.154000Z
2026-02-24T09:48:45.154000Z
Lec.
Таким образом, не нужно использовать какие – либо дополнительные методы по типу укорачивания строк или их рассечения на несколько
false
true
false
10,213
2026-02-24T09:48:43.507000Z
2026-02-24T09:48:43.507000Z
Lec.
Из получившихся распределений для различных классификаторов видно, что русскоязычные модели в целом обрабатывают почти все тексты
false
true
false
10,212
2026-02-24T09:48:41.942000Z
2026-02-24T09:48:41.942000Z
Lec.
Рисунок 12 – Распределение токенов в тренировочном датасете, rubert–tiny–turbo
false
false
false
10,211
2026-02-24T09:48:40.098000Z
2026-02-24T09:48:40.098000Z
Lec.
Рисунок 11 – Распределение токенов в тренировочном датасете, DeepPavlov/rubert-base-cased
false
true
false
10,210
2026-02-24T09:48:38.200000Z
2026-02-24T09:48:38.200000Z
Lec.
Распределения для датасета первого уровня представлено на рисунке 9 и 10
false
true
false
10,209
2026-02-24T09:48:36.555000Z
2026-02-24T09:48:36.555000Z
Lec.
Если токенизатор создаст больше токенов, чем может принять модель, классификатор не сможет уловить все слова и потеряет часть признаков
false
true
false
10,208
2026-02-24T09:48:34.933000Z
2026-02-24T09:48:34.933000Z
Lec.
Все модели имеют ограничение по количеству токенов, которое они могут принять на вход
false
true
false