id int64 18 21.1k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 16:54:39 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 16:54:39 | doc_name stringclasses 1
value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2
classes | is_sentence bool 2
classes | is_corrected bool 2
classes |
|---|---|---|---|---|---|---|---|---|
10,307 | 2026-02-24T09:51:26.873000Z | 2026-02-24T09:51:26.873000Z | Lec. | Это означает, что модели стали значительно лучше предсказывают маленькие рубрики | false | true | false | |
10,306 | 2026-02-24T09:51:25.125000Z | 2026-02-24T09:51:25.125000Z | Lec. | Для f1_macro прирост составляет от 3 до 5 процентов | false | true | false | |
10,305 | 2026-02-24T09:51:23.420000Z | 2026-02-24T09:51:23.420000Z | Lec. | Из результатов, мы получили прирост от 1.5 до 3 процентов для f1_weighted и f1_micro для каждого датасета второго уровня из представленных | false | true | false | |
10,304 | 2026-02-24T09:51:21.743000Z | 2026-02-24T09:51:21.743000Z | Lec. | CE_weighted. 0,3. 0,407 | false | false | false | |
10,303 | 2026-02-24T09:51:20.028000Z | 2026-02-24T09:51:20.028000Z | Lec. | CE_weighted. 0,2. 0,178. 68. 0,7931. 0,7000. 0,7868 | false | false | false | |
10,302 | 2026-02-24T09:51:18.217000Z | 2026-02-24T09:51:18.217000Z | Lec. | CE_weighted. 0,3. 0,466. 65. 0,8784. 0,8342. 0,8822 | false | false | false | |
10,301 | 2026-02-24T09:51:16.402000Z | 2026-02-24T09:51:16.402000Z | Lec. | CE_weighted. 0,3. 0,466. 76. 0,9014. 0,8908. 0,9014 | false | false | false | |
10,300 | 2026-02-24T09:51:14.677000Z | 2026-02-24T09:51:14.677000Z | Lec. | CE_weighted. 0,3. 0,487. 50. 0,5610. 0,5187. 0,5670 | false | false | false | |
10,299 | 2026-02-24T09:51:13.153000Z | 2026-02-24T09:51:13.153000Z | Lec. | CE_weighted. 0,3. 0,411. 87. 0,6309. 0,4864. 0,6345 | false | false | false | |
10,298 | 2026-02-24T09:51:11.417000Z | 2026-02-24T09:51:11.417000Z | Lec. | CE_weighted. 0,3. 0,338. 31. 0,8953. 0,7564. 0,8956 | false | false | false | |
10,297 | 2026-02-24T09:51:09.650000Z | 2026-02-24T09:51:09.650000Z | Lec. | CE_weighted. 0,2. 0,179. 06. 0,7675. 0,7010. 0,7710 | false | false | false | |
10,296 | 2026-02-24T09:51:07.919000Z | 2026-02-24T09:51:07.919000Z | Lec. | CE_weighted. 0,2. 0,214. 47. 0,7905. 0,5871. 0,8002 | false | false | false | |
10,295 | 2026-02-24T09:51:06.195000Z | 2026-02-24T09:51:06.195000Z | Lec. | Метрики моделей второго уровня с модернизированной функцией потерь. номер среза. f1_weighted. f1_macro. f1_micro. функция потерь. alpha. ratio. 34. 0,8402. 0,6951. 0,8411 | false | false | false | |
10,294 | 2026-02-24T09:51:04.255000Z | 2026-02-24T09:51:04.255000Z | Lec. | Ниже представлена таблица с модернизированной функцией потерь с подобранными alpha.y | false | true | false | |
10,293 | 2026-02-24T09:51:02.735000Z | 2026-02-24T09:51:02.735000Z | Lec. | CE. 68. 0,7851. 0,6872. 0,7823 | false | false | false | |
10,292 | 2026-02-24T09:51:01.309000Z | 2026-02-24T09:51:01.309000Z | Lec. | CE. 65. 0,8690. 0,8194. 0,8736 | false | false | false | |
10,291 | 2026-02-24T09:50:59.596000Z | 2026-02-24T09:50:59.596000Z | Lec. | CE. 76. 0,8935. 0,8740. 0,8978 | false | false | false | |
10,290 | 2026-02-24T09:50:57.970000Z | 2026-02-24T09:50:57.970000Z | Lec. | CE. 50. 0,5176. 0,4862. 0,5322 | false | false | false | |
10,289 | 2026-02-24T09:50:56.251000Z | 2026-02-24T09:50:56.251000Z | Lec. | CE. 87. 0,6309. 0,4864. 0,6345 | false | false | false | |
10,288 | 2026-02-24T09:50:54.834000Z | 2026-02-24T09:50:54.834000Z | Lec. | CE. 31. 0,8855. 0,7498. 0,8864 | false | false | false | |
10,287 | 2026-02-24T09:50:53.289000Z | 2026-02-24T09:50:53.289000Z | Lec. | CE. 06. 0,7673. 0,7021. 0,7665 | false | false | false | |
10,286 | 2026-02-24T09:50:51.684000Z | 2026-02-24T09:50:51.684000Z | Lec. | CE. 47. 0,7675. 0,5779. 0,7798 | false | false | false | |
10,285 | 2026-02-24T09:50:49.789000Z | 2026-02-24T09:50:49.789000Z | Lec. | Функция потерь. 34. 0,8205. 0,6547. 0,8214 | false | false | false | |
10,284 | 2026-02-24T09:50:48.347000Z | 2026-02-24T09:50:48.347000Z | Lec. | Номер среза. f1_weighted. f1_macro. f1_micro | false | false | false | |
10,283 | 2026-02-24T09:50:46.706000Z | 2026-02-24T09:50:46.706000Z | Lec. | Метрики моделей второго уровня со стандартной функцией потерь | false | true | false | |
10,282 | 2026-02-24T09:50:44.857000Z | 2026-02-24T09:50:44.857000Z | Lec. | Ниже приведена таблица со стандартной функцией потерь | false | true | false | |
10,281 | 2026-02-24T09:50:43.369000Z | 2026-02-24T09:50:43.369000Z | Lec. | Методом перебора было выявлено, что пороговым | false | true | false | |
10,280 | 2026-02-24T09:50:41.761000Z | 2026-02-24T09:50:41.761000Z | Lec. | Для его расчета была введена переменная ratio – отношение наибольшего класса ко всему датасету | false | true | false | |
10,279 | 2026-02-24T09:50:39.669000Z | 2026-02-24T09:50:39.669000Z | Lec. | Параметр подбирается перебором | false | true | false | |
10,278 | 2026-02-24T09:50:38.208000Z | 2026-02-24T09:50:38.208000Z | Lec. | У нее есть гиперпараметр alpha, который отвечает за степень, в которую возводятся значения вектора соотношений классов | false | true | false | |
10,277 | 2026-02-24T09:50:36.564000Z | 2026-02-24T09:50:36.564000Z | Lec. | Ввиду того, что каждый датасет внутри имеет разнообразный дисбаланс классов, было принято решение использовать модернизированную функцию потерь Cross entropy weighted, описанная ранее | false | true | false | |
10,276 | 2026-02-24T09:50:34.758000Z | 2026-02-24T09:50:34.758000Z | Lec. | Таким образом мы получили разбиение по 4 длинам датасета: от 2 до 10 тысяч, от 10 до 20 тысяч, до 30 тысяч, и выше 30 000 тысяч | false | true | false | |
10,275 | 2026-02-24T09:50:33.150000Z | 2026-02-24T09:50:33.150000Z | Lec. | Оптимальные параметры: weight decay: 0,005, batch size: 8, learning rate 6e–5 | false | false | false | |
10,274 | 2026-02-24T09:50:31.314000Z | 2026-02-24T09:50:31.314000Z | Lec. | Размер 32889 | false | false | false | |
10,273 | 2026-02-24T09:50:29.779000Z | 2026-02-24T09:50:29.779000Z | Lec. | Оптимальные параметры: weight_decay 0,007, batch size: 8, learning rate 1e–4. 34 – Биология | false | true | false | |
10,272 | 2026-02-24T09:50:28.054000Z | 2026-02-24T09:50:28.054000Z | Lec. | Размер 11082 | false | false | false | |
10,271 | 2026-02-24T09:50:26.503000Z | 2026-02-24T09:50:26.503000Z | Lec. | Оптимальные параметры: weight decay 0,05, batch size: 10, learning rate 3e–4. 06 – Экономика и экономические науки | false | true | false | |
10,270 | 2026-02-24T09:50:24.718000Z | 2026-02-24T09:50:24.718000Z | Lec. | Размер 3473 | false | false | false | |
10,269 | 2026-02-24T09:50:23.178000Z | 2026-02-24T09:50:23.179000Z | Lec. | Оптимальные параметры: weight decay 0,05, batch size: 10, learning rate 8e–5. 65 – Пищевая промышленность | false | true | false | |
10,268 | 2026-02-24T09:50:21.575000Z | 2026-02-24T09:50:21.576000Z | Lec. | Размер 20719 | false | false | false | |
10,267 | 2026-02-24T09:50:20.012000Z | 2026-02-24T09:50:20.012000Z | Lec. | Для тестирования выбрали следующие классы второго уровня:. 31 – Химия | false | true | false | |
10,266 | 2026-02-24T09:50:18.445000Z | 2026-02-24T09:50:18.445000Z | Lec. | Значения для learning rate отличаются от предыдущей модели первого уровня, в связи с разницей в их размерах | false | true | false | |
10,265 | 2026-02-24T09:50:16.697000Z | 2026-02-24T09:50:16.697000Z | Lec. | Параметры поиска следующие:. learning rate: 6e–5, 8e–5, 1e–4, 3e–4;. weight decay: 0,007, 0.009, 0,01, 0,03, 0,05;. batch size: 6, 8, 10, 12, 16 | false | false | false | |
10,264 | 2026-02-24T09:50:15.125000Z | 2026-02-24T09:50:15.125000Z | Lec. | В виду того, что размер датасетов разный и варьируется от 20 000 до 60 000, было принято сделать grid search для четырех разных срезов датасета с разным количеством строк | true | true | false | |
10,263 | 2026-02-24T09:50:13.018000Z | 2026-02-24T09:50:13.018000Z | Lec. | Также как и для второго уровня, здесь был применен метод Grid Search по тем же параметрам | false | true | false | |
10,262 | 2026-02-24T09:50:11.503000Z | 2026-02-24T09:50:11.503000Z | Lec. | Исходя из результатов, лучшим выбором с незначительным перевесом является модель rubert–tiny–turbo | false | true | false | |
10,261 | 2026-02-24T09:50:09.978000Z | 2026-02-24T09:50:09.978000Z | Lec. | Rubert–tiny. 0,887. 0,852. 0,889 | false | true | false | |
10,260 | 2026-02-24T09:50:08.085000Z | 2026-02-24T09:50:08.085000Z | Lec. | Название модели. f1–weighted. f1–macro. f1–micro. rubert–tiny–turbo. 0,920. 0,891. 0,920. rubert–tiny2. 0,911. 0,873. 0,910 | false | false | false | |
10,259 | 2026-02-24T09:50:06.286000Z | 2026-02-24T09:50:06.286000Z | Lec. | Сравнение моделей второго уровня | false | true | false | |
10,258 | 2026-02-24T09:50:04.076000Z | 2026-02-24T09:50:04.076000Z | Lec. | Ниже в таблице 3 приведены результаты тестирования на одном из 40 классов первого уровня, длинной 11459 строк в течение 2 эпох | false | false | false | |
10,257 | 2026-02-24T09:50:01.831000Z | 2026-02-24T09:50:01.831000Z | Lec. | Это модели rubert–tiny–turbo и rubert–tiny2 [42] из первого классификатора | false | true | false | |
10,256 | 2026-02-24T09:50:00.077000Z | 2026-02-24T09:50:00.077000Z | Lec. | Ввиду необходимой быстроты обработки текста, а также экономии размеров итогового приложения, было принято решение использовать на втором уровне маленькие модели BERT на основе технологии дистиляции [41] | false | true | false | |
10,255 | 2026-02-24T09:49:58.321000Z | 2026-02-24T09:49:58.321000Z | Lec. | Это позволило поднять f1 weighted/macro/micro на 2 процентных пункта | false | false | false | |
10,254 | 2026-02-24T09:49:56.508000Z | 2026-02-24T09:49:56.508000Z | Lec. | Для batch size: batch size; | false | true | false | |
10,253 | 2026-02-24T09:49:54.885000Z | 2026-02-24T09:49:54.885000Z | Lec. | Для weight decay: 0,009, 0,01, 0,03, 0,05; | false | false | false | |
10,252 | 2026-02-24T09:49:53.393000Z | 2026-02-24T09:49:53.393000Z | Lec. | Для learning rate: 8e–6, 1e–5, 3e–5; | false | true | false | |
10,251 | 2026-02-24T09:49:51.418000Z | 2026-02-24T09:49:51.418000Z | Lec. | Для Grid Search использовались следующие варианты параметров: | false | true | false | |
10,250 | 2026-02-24T09:49:49.970000Z | 2026-02-24T09:49:49.970000Z | Lec. | Это learning rate, batch size, weight decay для оптимизатора AdamW | false | false | false | |
10,249 | 2026-02-24T09:49:48.247000Z | 2026-02-24T09:49:48.247000Z | Lec. | Для улучшения метрик качества для моделей первого и второго уровня принято использовать Grid Search [40], который используется для подбора гиперпараметров модели | false | true | false | |
10,248 | 2026-02-24T09:49:46.498000Z | 2026-02-24T09:49:46.498000Z | Lec. | Результаты получились немного неожиданными, поскольку эта модель смогла обогнать RoBERTa | false | true | false | |
10,247 | 2026-02-24T09:49:44.666000Z | 2026-02-24T09:49:44.666000Z | Lec. | Как мы видим, победителем стало ai–forever/sbert_large_nlu_ru от разработчиков СБЕР на основе архитектуры SBERT | false | true | false | |
10,246 | 2026-02-24T09:49:42.913000Z | 2026-02-24T09:49:42.913000Z | Lec. | Размер батча. токены. rubert–base–cased–sentence. 0,6578. 0,6128. 0,6606. 16. 512. rubert–base–cased. 0,6670. 0,6298. 0,6691. 16. 512. bert–base–multilingual–cased. 0,6354. 0,5756. 0,6432. 16. 512. ai–forever/ruElectra–medium. 0,4937. 0,3376. 0,5338. 16. 512. ai–forever/sbert_large_nlu_ru. 0,6813. 0,6454. 0,6846. 16. 512. ai–forever/ruRoberta–large. 0,6712. 0,6442. 0,6766. 16. 512. ruberta–large. 0,6741. 0,6444. 0,6797. 16. 512. rubert–tiny–turbo. 0,6509. 0,5991. 0,6585. 24. 700. rubert–tiny–2. 0,6660. 0,6305. 0,6698. 16. 700 | false | false | false | |
10,245 | 2026-02-24T09:49:40.911000Z | 2026-02-24T09:49:40.911000Z | Lec. | Название модели. weighted. macro. micro | false | false | false | |
10,244 | 2026-02-24T09:49:39.187000Z | 2026-02-24T09:49:39.187000Z | Lec. | Сравнение различных моделей для первого уровня | false | true | false | |
10,243 | 2026-02-24T09:49:37.689000Z | 2026-02-24T09:49:37.690000Z | Lec. | Результат эксперимента можно увидеть ниже в таблице | false | true | false | |
10,242 | 2026-02-24T09:49:35.847000Z | 2026-02-24T09:49:35.847000Z | Lec. | Мультиязычная модель от google представлена в качестве эталона | false | true | false | |
10,241 | 2026-02-24T09:49:34.236000Z | 2026-02-24T09:49:34.236000Z | Lec. | Поскольку они используют более мощные токенизаторы [39] и могут принимать до 2048 токенов, для них было выставлено значение в 700 токенов | false | true | false | |
10,240 | 2026-02-24T09:49:32.478000Z | 2026-02-24T09:49:32.478000Z | Lec. | Количество токенов для всех моделей выставлялось предельное – 512, кроме двух последних | false | true | false | |
10,239 | 2026-02-24T09:49:30.970000Z | 2026-02-24T09:49:30.970000Z | Lec. | Для избежания случайных колебаний метрик качества каждая модель запускалась по 2 раза на разных начальных значениях, значения усреднялись | true | true | false | |
10,238 | 2026-02-24T09:49:28.828000Z | 2026-02-24T09:49:28.828000Z | Lec. | Каждая модель обучалась на 2 эпохах, для каждой модели были выставлены одни и те же гиперпараметры | false | true | false | |
10,237 | 2026-02-24T09:49:27.249000Z | 2026-02-24T09:49:27.249000Z | Lec. | Тестирование проводилось следующим образом: для каждой модели в целях экономии памяти брался срез датасета в 20% с таким же распределением классов, как и в оригинале, для честности эксперимента | false | true | false | |
10,236 | 2026-02-24T09:49:25.399000Z | 2026-02-24T09:49:25.399000Z | Lec. | Следовательно, здесь нужно использовать наиболее мощные из доступных моделей классификации | true | true | false | |
10,235 | 2026-02-24T09:49:23.600000Z | 2026-02-24T09:49:23.600000Z | Lec. | Поскольку используется иерархическая классификация, итоговая точность очень сильно зависит от показателей характеристики именно первого уровня | true | true | false | |
10,234 | 2026-02-24T09:49:21.799000Z | 2026-02-24T09:49:21.799000Z | Lec. | Итоговая схема преобразование текста выглядит следующим образом:. удаление пунктуации. понижение регистра. 3) удаление незначимых слов (например, предлогов) библиотекой nltk. 4) Лемматизация. 5) обработка химических и физических формул библиотекой RDKIT. 6) удаление оставшихся чисел. 7) удаление оставшихся не текстовых символов. 8) выделение ключевых слов в аннотации и тексте специальными токеном[special] по бокам. 9) формирование одной строки из названия и аннотации | false | false | false | |
10,233 | 2026-02-24T09:49:19.944000Z | 2026-02-24T09:49:19.944000Z | Lec. | Кроме того, такая предобработка позволяет модели лучше фокусироваться на семантике текста, а не на числовых значениях | false | true | false | |
10,232 | 2026-02-24T09:49:18.304000Z | 2026-02-24T09:49:18.304000Z | Lec. | Исходя из проделанного эксперимента можно сделать вывод, что для трансформеров важна обработка формул и удаление чисел, поскольку это снижает шум в данных и улучшает понимание структурных зависимостей | false | true | false | |
10,231 | 2026-02-24T09:49:16.572000Z | 2026-02-24T09:49:16.572000Z | Lec. | С обработкой формул и чисел. 0,9157. 0,8923. 0,9154 | false | false | false | |
10,230 | 2026-02-24T09:49:14.829000Z | 2026-02-24T09:49:14.829000Z | Lec. | Без обработки формул и чисел. 0,8945. 0,8615. 0,8962 | false | false | false | |
10,229 | 2026-02-24T09:49:13.219000Z | 2026-02-24T09:49:13.219000Z | Lec. | F1–weighted | false | false | false | |
10,228 | 2026-02-24T09:49:11.607000Z | 2026-02-24T09:49:11.607000Z | Lec. | Тип датасета | false | false | false | |
10,227 | 2026-02-24T09:49:09.646000Z | 2026-02-24T09:49:09.646000Z | Lec. | Результат обучения с разной обработкой текста | false | true | false | |
10,226 | 2026-02-24T09:49:07.599000Z | 2026-02-24T09:49:07.599000Z | Lec. | Результаты приведены ниже | false | true | false | |
10,225 | 2026-02-24T09:49:05.145000Z | 2026-02-24T09:49:05.145000Z | Lec. | Сравнение шло по трем видам метрики F1 | false | true | false | |
10,224 | 2026-02-24T09:49:03.014000Z | 2026-02-24T09:49:03.014000Z | Lec. | Для теста была взята модель трансформера rubert–tiny2 и срез массива второго уровня под номер 44 (энергетика), так как в этом разделе как раз встречаются формулы в аннотации | false | true | false | |
10,223 | 2026-02-24T09:49:01.474000Z | 2026-02-24T09:49:01.474000Z | Lec. | Найденные формулы | false | false | false | |
10,222 | 2026-02-24T09:48:59.856000Z | 2026-02-24T09:48:59.856000Z | Lec. | Она позволяет находить различные вариации формул (в том числе химические брутто и нетто формулы в тексте) | false | true | false | |
10,221 | 2026-02-24T09:48:58.333000Z | 2026-02-24T09:48:58.333000Z | Lec. | Формулы обрабатывались с помощью библиотеки RDKIT [38] | false | true | false | |
10,220 | 2026-02-24T09:48:56.795000Z | 2026-02-24T09:48:56.795000Z | Lec. | Поскольку текст научных аннотаций сложен, имелось предположение, что не нужно удалять числа и обрабатывать формулы, а оставить как есть в виду того, что они могли нести дополнительную информацию о специфике темы | false | true | false | |
10,219 | 2026-02-24T09:48:55.128000Z | 2026-02-24T09:48:55.128000Z | Lec. | Он учитывает грамматические характеристики слова, такие как его часть речи, и позволяет преобразовать вариации слова в базовую форму | false | true | false | |
10,218 | 2026-02-24T09:48:52.840000Z | 2026-02-24T09:48:52.840000Z | Lec. | Это процесс приведения слова к его начальной форме, называемой леммой | false | true | false | |
10,217 | 2026-02-24T09:48:51.074000Z | 2026-02-24T09:48:51.074000Z | Lec. | Для аннотации и названия научных работ использовалась лемматизацию | false | true | false | |
10,216 | 2026-02-24T09:48:48.614000Z | 2026-02-24T09:48:48.614000Z | Lec. | Также удалялись числа. замена формул специальными метками | false | false | false | |
10,215 | 2026-02-24T09:48:46.785000Z | 2026-02-24T09:48:46.785000Z | Lec. | Для улучшения обработки текста трансформенными моделями прибегают к ряду методик для уменьшения количество незначащих токенов: приведение текста к нижнему регистру, удаление всех знаков препинания, удаление незначащих или коротких слов (например, предлогов) | false | true | false | |
10,214 | 2026-02-24T09:48:45.154000Z | 2026-02-24T09:48:45.154000Z | Lec. | Таким образом, не нужно использовать какие – либо дополнительные методы по типу укорачивания строк или их рассечения на несколько | false | true | false | |
10,213 | 2026-02-24T09:48:43.507000Z | 2026-02-24T09:48:43.507000Z | Lec. | Из получившихся распределений для различных классификаторов видно, что русскоязычные модели в целом обрабатывают почти все тексты | false | true | false | |
10,212 | 2026-02-24T09:48:41.942000Z | 2026-02-24T09:48:41.942000Z | Lec. | Рисунок 12 – Распределение токенов в тренировочном датасете, rubert–tiny–turbo | false | false | false | |
10,211 | 2026-02-24T09:48:40.098000Z | 2026-02-24T09:48:40.098000Z | Lec. | Рисунок 11 – Распределение токенов в тренировочном датасете, DeepPavlov/rubert-base-cased | false | true | false | |
10,210 | 2026-02-24T09:48:38.200000Z | 2026-02-24T09:48:38.200000Z | Lec. | Распределения для датасета первого уровня представлено на рисунке 9 и 10 | false | true | false | |
10,209 | 2026-02-24T09:48:36.555000Z | 2026-02-24T09:48:36.555000Z | Lec. | Если токенизатор создаст больше токенов, чем может принять модель, классификатор не сможет уловить все слова и потеряет часть признаков | false | true | false | |
10,208 | 2026-02-24T09:48:34.933000Z | 2026-02-24T09:48:34.933000Z | Lec. | Все модели имеют ограничение по количеству токенов, которое они могут принять на вход | false | true | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.