id int64 18 18.8k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 14:51:09 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 14:51:09 | doc_name stringclasses 1
value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2
classes | is_sentence bool 2
classes | is_corrected bool 2
classes |
|---|---|---|---|---|---|---|---|---|
10,257 | 2026-02-24T09:50:01.831000Z | 2026-02-24T09:50:01.831000Z | Lec. | Это модели rubert–tiny–turbo и rubert–tiny2 [42] из первого классификатора | false | true | false | |
10,256 | 2026-02-24T09:50:00.077000Z | 2026-02-24T09:50:00.077000Z | Lec. | Ввиду необходимой быстроты обработки текста, а также экономии размеров итогового приложения, было принято решение использовать на втором уровне маленькие модели BERT на основе технологии дистиляции [41] | false | true | false | |
10,255 | 2026-02-24T09:49:58.321000Z | 2026-02-24T09:49:58.321000Z | Lec. | Это позволило поднять f1 weighted/macro/micro на 2 процентных пункта | false | false | false | |
10,254 | 2026-02-24T09:49:56.508000Z | 2026-02-24T09:49:56.508000Z | Lec. | Для batch size: batch size; | false | true | false | |
10,253 | 2026-02-24T09:49:54.885000Z | 2026-02-24T09:49:54.885000Z | Lec. | Для weight decay: 0,009, 0,01, 0,03, 0,05; | false | false | false | |
10,252 | 2026-02-24T09:49:53.393000Z | 2026-02-24T09:49:53.393000Z | Lec. | Для learning rate: 8e–6, 1e–5, 3e–5; | false | true | false | |
10,251 | 2026-02-24T09:49:51.418000Z | 2026-02-24T09:49:51.418000Z | Lec. | Для Grid Search использовались следующие варианты параметров: | false | true | false | |
10,250 | 2026-02-24T09:49:49.970000Z | 2026-02-24T09:49:49.970000Z | Lec. | Это learning rate, batch size, weight decay для оптимизатора AdamW | false | false | false | |
10,249 | 2026-02-24T09:49:48.247000Z | 2026-02-24T09:49:48.247000Z | Lec. | Для улучшения метрик качества для моделей первого и второго уровня принято использовать Grid Search [40], который используется для подбора гиперпараметров модели | false | true | false | |
10,248 | 2026-02-24T09:49:46.498000Z | 2026-02-24T09:49:46.498000Z | Lec. | Результаты получились немного неожиданными, поскольку эта модель смогла обогнать RoBERTa | false | true | false | |
10,247 | 2026-02-24T09:49:44.666000Z | 2026-02-24T09:49:44.666000Z | Lec. | Как мы видим, победителем стало ai–forever/sbert_large_nlu_ru от разработчиков СБЕР на основе архитектуры SBERT | false | true | false | |
10,246 | 2026-02-24T09:49:42.913000Z | 2026-02-24T09:49:42.913000Z | Lec. | Размер батча. токены. rubert–base–cased–sentence. 0,6578. 0,6128. 0,6606. 16. 512. rubert–base–cased. 0,6670. 0,6298. 0,6691. 16. 512. bert–base–multilingual–cased. 0,6354. 0,5756. 0,6432. 16. 512. ai–forever/ruElectra–medium. 0,4937. 0,3376. 0,5338. 16. 512. ai–forever/sbert_large_nlu_ru. 0,6813. 0,6454. 0,6846. 16. 5... | false | false | false | |
10,245 | 2026-02-24T09:49:40.911000Z | 2026-02-24T09:49:40.911000Z | Lec. | Название модели. weighted. macro. micro | false | false | false | |
10,244 | 2026-02-24T09:49:39.187000Z | 2026-02-24T09:49:39.187000Z | Lec. | Сравнение различных моделей для первого уровня | false | true | false | |
10,243 | 2026-02-24T09:49:37.689000Z | 2026-02-24T09:49:37.690000Z | Lec. | Результат эксперимента можно увидеть ниже в таблице | false | true | false | |
10,242 | 2026-02-24T09:49:35.847000Z | 2026-02-24T09:49:35.847000Z | Lec. | Мультиязычная модель от google представлена в качестве эталона | false | true | false | |
10,241 | 2026-02-24T09:49:34.236000Z | 2026-02-24T09:49:34.236000Z | Lec. | Поскольку они используют более мощные токенизаторы [39] и могут принимать до 2048 токенов, для них было выставлено значение в 700 токенов | false | true | false | |
10,240 | 2026-02-24T09:49:32.478000Z | 2026-02-24T09:49:32.478000Z | Lec. | Количество токенов для всех моделей выставлялось предельное – 512, кроме двух последних | false | true | false | |
10,239 | 2026-02-24T09:49:30.970000Z | 2026-02-24T09:49:30.970000Z | Lec. | Для избежания случайных колебаний метрик качества каждая модель запускалась по 2 раза на разных начальных значениях, значения усреднялись | true | true | false | |
10,238 | 2026-02-24T09:49:28.828000Z | 2026-02-24T09:49:28.828000Z | Lec. | Каждая модель обучалась на 2 эпохах, для каждой модели были выставлены одни и те же гиперпараметры | false | true | false | |
10,237 | 2026-02-24T09:49:27.249000Z | 2026-02-24T09:49:27.249000Z | Lec. | Тестирование проводилось следующим образом: для каждой модели в целях экономии памяти брался срез датасета в 20% с таким же распределением классов, как и в оригинале, для честности эксперимента | false | true | false | |
10,236 | 2026-02-24T09:49:25.399000Z | 2026-02-24T09:49:25.399000Z | Lec. | Следовательно, здесь нужно использовать наиболее мощные из доступных моделей классификации | true | true | false | |
10,235 | 2026-02-24T09:49:23.600000Z | 2026-02-24T09:49:23.600000Z | Lec. | Поскольку используется иерархическая классификация, итоговая точность очень сильно зависит от показателей характеристики именно первого уровня | true | true | false | |
10,234 | 2026-02-24T09:49:21.799000Z | 2026-02-24T09:49:21.799000Z | Lec. | Итоговая схема преобразование текста выглядит следующим образом:. удаление пунктуации. понижение регистра. 3) удаление незначимых слов (например, предлогов) библиотекой nltk. 4) Лемматизация. 5) обработка химических и физических формул библиотекой RDKIT. 6) удаление оставшихся чисел. 7) удаление оставшихся не текстовых... | false | false | false | |
10,233 | 2026-02-24T09:49:19.944000Z | 2026-02-24T09:49:19.944000Z | Lec. | Кроме того, такая предобработка позволяет модели лучше фокусироваться на семантике текста, а не на числовых значениях | false | true | false | |
10,232 | 2026-02-24T09:49:18.304000Z | 2026-02-24T09:49:18.304000Z | Lec. | Исходя из проделанного эксперимента можно сделать вывод, что для трансформеров важна обработка формул и удаление чисел, поскольку это снижает шум в данных и улучшает понимание структурных зависимостей | false | true | false | |
10,231 | 2026-02-24T09:49:16.572000Z | 2026-02-24T09:49:16.572000Z | Lec. | С обработкой формул и чисел. 0,9157. 0,8923. 0,9154 | false | false | false | |
10,230 | 2026-02-24T09:49:14.829000Z | 2026-02-24T09:49:14.829000Z | Lec. | Без обработки формул и чисел. 0,8945. 0,8615. 0,8962 | false | false | false | |
10,229 | 2026-02-24T09:49:13.219000Z | 2026-02-24T09:49:13.219000Z | Lec. | F1–weighted | false | false | false | |
10,228 | 2026-02-24T09:49:11.607000Z | 2026-02-24T09:49:11.607000Z | Lec. | Тип датасета | false | false | false | |
10,227 | 2026-02-24T09:49:09.646000Z | 2026-02-24T09:49:09.646000Z | Lec. | Результат обучения с разной обработкой текста | false | true | false | |
10,226 | 2026-02-24T09:49:07.599000Z | 2026-02-24T09:49:07.599000Z | Lec. | Результаты приведены ниже | false | true | false | |
10,225 | 2026-02-24T09:49:05.145000Z | 2026-02-24T09:49:05.145000Z | Lec. | Сравнение шло по трем видам метрики F1 | false | true | false | |
10,224 | 2026-02-24T09:49:03.014000Z | 2026-02-24T09:49:03.014000Z | Lec. | Для теста была взята модель трансформера rubert–tiny2 и срез массива второго уровня под номер 44 (энергетика), так как в этом разделе как раз встречаются формулы в аннотации | false | true | false | |
10,223 | 2026-02-24T09:49:01.474000Z | 2026-02-24T09:49:01.474000Z | Lec. | Найденные формулы | false | false | false | |
10,222 | 2026-02-24T09:48:59.856000Z | 2026-02-24T09:48:59.856000Z | Lec. | Она позволяет находить различные вариации формул (в том числе химические брутто и нетто формулы в тексте) | false | true | false | |
10,221 | 2026-02-24T09:48:58.333000Z | 2026-02-24T09:48:58.333000Z | Lec. | Формулы обрабатывались с помощью библиотеки RDKIT [38] | false | true | false | |
10,220 | 2026-02-24T09:48:56.795000Z | 2026-02-24T09:48:56.795000Z | Lec. | Поскольку текст научных аннотаций сложен, имелось предположение, что не нужно удалять числа и обрабатывать формулы, а оставить как есть в виду того, что они могли нести дополнительную информацию о специфике темы | false | true | false | |
10,219 | 2026-02-24T09:48:55.128000Z | 2026-02-24T09:48:55.128000Z | Lec. | Он учитывает грамматические характеристики слова, такие как его часть речи, и позволяет преобразовать вариации слова в базовую форму | false | true | false | |
10,218 | 2026-02-24T09:48:52.840000Z | 2026-02-24T09:48:52.840000Z | Lec. | Это процесс приведения слова к его начальной форме, называемой леммой | false | true | false | |
10,217 | 2026-02-24T09:48:51.074000Z | 2026-02-24T09:48:51.074000Z | Lec. | Для аннотации и названия научных работ использовалась лемматизацию | false | true | false | |
10,216 | 2026-02-24T09:48:48.614000Z | 2026-02-24T09:48:48.614000Z | Lec. | Также удалялись числа. замена формул специальными метками | false | false | false | |
10,215 | 2026-02-24T09:48:46.785000Z | 2026-02-24T09:48:46.785000Z | Lec. | Для улучшения обработки текста трансформенными моделями прибегают к ряду методик для уменьшения количество незначащих токенов: приведение текста к нижнему регистру, удаление всех знаков препинания, удаление незначащих или коротких слов (например, предлогов) | false | true | false | |
10,214 | 2026-02-24T09:48:45.154000Z | 2026-02-24T09:48:45.154000Z | Lec. | Таким образом, не нужно использовать какие – либо дополнительные методы по типу укорачивания строк или их рассечения на несколько | false | true | false | |
10,213 | 2026-02-24T09:48:43.507000Z | 2026-02-24T09:48:43.507000Z | Lec. | Из получившихся распределений для различных классификаторов видно, что русскоязычные модели в целом обрабатывают почти все тексты | false | true | false | |
10,212 | 2026-02-24T09:48:41.942000Z | 2026-02-24T09:48:41.942000Z | Lec. | Рисунок 12 – Распределение токенов в тренировочном датасете, rubert–tiny–turbo | false | false | false | |
10,211 | 2026-02-24T09:48:40.098000Z | 2026-02-24T09:48:40.098000Z | Lec. | Рисунок 11 – Распределение токенов в тренировочном датасете, DeepPavlov/rubert-base-cased | false | true | false | |
10,210 | 2026-02-24T09:48:38.200000Z | 2026-02-24T09:48:38.200000Z | Lec. | Распределения для датасета первого уровня представлено на рисунке 9 и 10 | false | true | false | |
10,209 | 2026-02-24T09:48:36.555000Z | 2026-02-24T09:48:36.555000Z | Lec. | Если токенизатор создаст больше токенов, чем может принять модель, классификатор не сможет уловить все слова и потеряет часть признаков | false | true | false | |
10,208 | 2026-02-24T09:48:34.933000Z | 2026-02-24T09:48:34.933000Z | Lec. | Все модели имеют ограничение по количеству токенов, которое они могут принять на вход | false | true | false | |
10,207 | 2026-02-24T09:48:33.339000Z | 2026-02-24T09:48:33.339000Z | Lec. | Токен является численным представлением слова или части слова для BERT | false | true | false | |
10,206 | 2026-02-24T09:48:31.631000Z | 2026-02-24T09:48:31.631000Z | Lec. | Помимо распределения классов, нужно знать еще распределение длин токенов в датасете, чтобы правильно выбрать модель | false | true | false | |
10,205 | 2026-02-24T09:48:30.117000Z | 2026-02-24T09:48:30.117000Z | Lec. | Рисунок 10 – Частота встречаемости в тренировочном наборе, уровень 1 | false | true | false | |
10,204 | 2026-02-24T09:48:28.216000Z | 2026-02-24T09:48:28.216000Z | Lec. | Рисунок 9 – Частота встречаемости в тренировочном наборе, уровень 2/3 | false | false | false | |
10,203 | 2026-02-24T09:48:26.573000Z | 2026-02-24T09:48:26.573000Z | Lec. | Ознакомится с распределением меток по первому уровня для двух получившихся датасетах можно на рисунках 8 и 9 | false | true | false | |
10,202 | 2026-02-24T09:48:25.095000Z | 2026-02-24T09:48:25.095000Z | Lec. | Для второго и третьего уровня, где дисбаланс велик, были удалены метки второго уровня, чья встречаемость в тексте была ниже 30, так как на третьем уровне классификатор не сможет классифицировать рубрики третьего уровня для таких срезов с таким количеством текстов | false | true | false | |
10,201 | 2026-02-24T09:48:23.470000Z | 2026-02-24T09:48:23.470000Z | Lec. | Отличие набора для первого уровня состоит в том, что для самого большого класса 34 (биология) был сделан небольшой undersampling [37], с целью уменьшения дисбаланса | false | true | false | |
10,200 | 2026-02-24T09:48:21.705000Z | 2026-02-24T09:48:21.705000Z | Lec. | В виду того, что новый датасет получился также с большим классовым дисбалансом, решено разделить его на 2 датасета для первого уровня, и для второго и третьего уровней | false | true | false | |
10,199 | 2026-02-24T09:48:20.075000Z | 2026-02-24T09:48:20.075000Z | Lec. | Рисунок 8 – Частота встречаемости в тренировочном наборе | false | false | false | |
10,198 | 2026-02-24T09:48:17.922000Z | 2026-02-24T09:48:17.922000Z | Lec. | Рисунок 7 – Частота встречаемости в объединенном наборе | false | true | false | |
10,197 | 2026-02-24T09:48:15.996000Z | 2026-02-24T09:48:15.996000Z | Lec. | В рисунке ниже можно ознакомиться с итоговым распределением объединенного тренировочного датасета после аугментации текстов | false | true | false | |
10,196 | 2026-02-24T09:48:14.341000Z | 2026-02-24T09:48:14.341000Z | Lec. | Для аугментации шести наименьших классов первого уровня потребовалось двое суток, ввиду чего не удалось аугментировать все классы первого уровня | false | true | false | |
10,195 | 2026-02-24T09:48:12.644000Z | 2026-02-24T09:48:12.644000Z | Lec. | Среднее время запуска для одного текста (аннотация и название работы) занимает около 4 секунд с использованием видеокарты NVIDIA RTX 4090 | false | true | false | |
10,194 | 2026-02-24T09:48:10.871000Z | 2026-02-24T09:48:10.871000Z | Lec. | Несмотря на все преимущества, модель очень затратна по ресурсам | false | true | false | |
10,193 | 2026-02-24T09:48:09.306000Z | 2026-02-24T09:48:09.306000Z | Lec. | Модель демонстрирует устойчивое качество аугментации, может обрабатывать аббревиатуры, числа, формулы, работает даже на больших текстах и сохраняет размер пересказанного предложения | false | true | false | |
10,192 | 2026-02-24T09:48:07.552000Z | 2026-02-24T09:48:07.552000Z | Lec. | Перефразированное предложение: На основании существующей нормативной базы можно отметить, что один из способов взаимодействия государственного и делового партнерства является институт государственного и делового партнерства, способствующий привлечению дополнительных ресурсов к экономике, распределению рисков между госу... | false | true | false | |
10,191 | 2026-02-24T09:48:05.548000Z | 2026-02-24T09:48:05.548000Z | Lec. | Исходное предложение: Отмечается, что одной из форм взаимодействия государства и бизнеса выступает институт государственно–частного партнерства (ГЧП), который позволяет привлечь в экономику дополнительные ресурсы, перераспределить риски между государством и предпринимательским сектором, направить усилия предпринимателе... | false | true | false | |
10,190 | 2026-02-24T09:48:03.682000Z | 2026-02-24T09:48:03.682000Z | Lec. | Ниже представлен пример работы модели на реальном предложении из тренировочного датасета | false | true | false | |
10,189 | 2026-02-24T09:48:01.952000Z | 2026-02-24T09:48:01.952000Z | Lec. | Аугментация запускалась сразу на объединенный текст названия и аннотации | false | true | false | |
10,188 | 2026-02-24T09:48:00.397000Z | 2026-02-24T09:48:00.397000Z | Lec. | В ходе перебора гиперпараметров были выявлены следующие оптимальные значения:. num_beams – 9;. temperature – 0,75;. grams – 3;. max_length – 1,5 от исходного текста (тексты переменной длины) | false | true | false | |
10,187 | 2026-02-24T09:47:58.747000Z | 2026-02-24T09:47:58.748000Z | Lec. | Модель имеет следующие гиперпараметры:. num_beams – количество гипотез, которые модель одновременно рассматривает при генерации текста, увеличивая качество за счет перебора вариантов. temperature – регулирует креативность модели: низкие значения делают вывод более детерминированным и консервативным, фокусируясь на самы... | false | true | false | |
10,186 | 2026-02-24T09:47:56.660000Z | 2026-02-24T09:47:56.660000Z | Lec. | Эта модель создавалась на основе генеративной модели t5 от google для аугментации русских текстов | false | true | false | |
10,185 | 2026-02-24T09:47:54.917000Z | 2026-02-24T09:47:54.917000Z | Lec. | Для аугментации использовалась модель cointegrated/rut5–base–paraphraser [36] | false | true | false | |
10,184 | 2026-02-24T09:47:53.122000Z | 2026-02-24T09:47:53.122000Z | Lec. | Далее последние 6 классов были аугментированы | false | true | false | |
10,183 | 2026-02-24T09:47:51.633000Z | 2026-02-24T09:47:51.633000Z | Lec. | Для частичного решения проблемы дисбаланса было принято решение удалить все классы с менее 500 строками, чтобы получилось 36 классов | false | true | false | |
10,182 | 2026-02-24T09:47:50.016000Z | 2026-02-24T09:47:50.016000Z | Lec. | В ходе самого обучения тренировочный датасет также разбивается в соотношении 9 к 1 для обучения и валидации | false | true | false | |
10,181 | 2026-02-24T09:47:48.443000Z | 2026-02-24T09:47:48.443000Z | Lec. | Получившийся тестовый датасет используется для оценки точности всей модели с помощью иерархической f1 | false | true | false | |
10,180 | 2026-02-24T09:47:46.152000Z | 2026-02-24T09:47:46.152000Z | Lec. | Ввиду избыточности тестового датасета было принято решение объединить их в один, а затем разделить в соотношении 9 к 1 | false | true | false | |
10,179 | 2026-02-24T09:47:44.563000Z | 2026-02-24T09:47:44.563000Z | Lec. | В каждом из датасетов находились коды ГРНТИ, которые не входили в выданный рубрикатор | false | true | false | |
10,178 | 2026-02-24T09:47:42.953000Z | 2026-02-24T09:47:42.953000Z | Lec. | Датасеты не сбалансированы ни по одному из трех уровней рубрикатора | false | true | false | |
10,177 | 2026-02-24T09:47:41.341000Z | 2026-02-24T09:47:41.341000Z | Lec. | Каждая строка содержит название, аннотацию, ключевые слова, разбивку по трем кодам | false | true | false | |
10,176 | 2026-02-24T09:47:39.348000Z | 2026-02-24T09:47:39.348000Z | Lec. | Тренировочный датасет содержит 270000 строк, тестовый 150000 строк | false | true | false | |
10,175 | 2026-02-24T09:47:37.618000Z | 2026-02-24T09:47:37.618000Z | Lec. | ВИНИТИ выдал 2 набора данных суммарно на около 420000 необработанных строк | false | true | false | |
10,174 | 2026-02-24T09:47:36.054000Z | 2026-02-24T09:47:36.054000Z | Lec. | Это ограничивает сложность модели, предотвращая переобучение за счет уменьшения абсолютных значений весовых коэффициентов | false | true | false | |
10,173 | 2026-02-24T09:47:34.427000Z | 2026-02-24T09:47:34.427000Z | Lec. | Важным инструментом является Weight Decay, Этот метод воздействует на функцию потерь, ввод штрафы за большие значения | false | true | false | |
10,172 | 2026-02-24T09:47:32.556000Z | 2026-02-24T09:47:32.556000Z | Lec. | Это повышает качества предсказаний модели | false | true | false | |
10,171 | 2026-02-24T09:47:30.966000Z | 2026-02-24T09:47:30.966000Z | Lec. | Сглаживание меток [35] – метод, при котором жесткие one–hot метки заменяются на вероятностные распределения по нескольким классам | false | true | false | |
10,170 | 2026-02-24T09:47:29.413000Z | 2026-02-24T09:47:29.413000Z | Lec. | Такой подход позволяет снизить зависимость модели от конкретных весовых коэффициентов | false | true | false | |
10,169 | 2026-02-24T09:47:27.668000Z | 2026-02-24T09:47:27.668000Z | Lec. | Схожим по действию является DropConnect [34] – модификация Dropout, где отключаются соединения между нейронами модели | false | true | false | |
10,168 | 2026-02-24T09:47:26.024000Z | 2026-02-24T09:47:26.024000Z | Lec. | Метод Dropout [33] противодействует переобучению путем случайного исключения нейронов в процессе обучения, что уменьшает избыточную согласованность между ними и способствует выявлению более устойчивых признаков | false | true | false | |
10,167 | 2026-02-24T09:47:24.452000Z | 2026-02-24T09:47:24.452000Z | Lec. | Еще одним классом методов для увеличения качества предсказаний модели является регуляризация | false | true | false | |
10,166 | 2026-02-24T09:47:22.828000Z | 2026-02-24T09:47:22.828000Z | Lec. | Dice Loss изначально создавалась для классификации изображений, а Focal Loss дает ощутимые результаты только для больших дисбалансов классов | false | true | false | |
10,165 | 2026-02-24T09:47:21.238000Z | 2026-02-24T09:47:21.238000Z | Lec. | Наилучшим выбором является функция Cross–Entropy, которая встроенна в AdamW | false | true | false | |
10,164 | 2026-02-24T09:47:19.304000Z | 2026-02-24T09:47:19.304000Z | Lec. | Часто применяется в сегментации изображений, так как устойчива к дисбалансу классов и учитывает пересечение между предсказанием и истинной маской | false | true | false | |
10,163 | 2026-02-24T09:47:17.665000Z | 2026-02-24T09:47:17.665000Z | Lec. | Dice Loss (DL) [32] – Основана на метрике Dice coefficient (аналогичной F1–score) | false | true | false | |
10,162 | 2026-02-24T09:47:15.732000Z | 2026-02-24T09:47:15.732000Z | Lec. | Особенно полезна для экстремальных случаев дисбаланса | false | true | false | |
10,161 | 2026-02-24T09:47:14.143000Z | 2026-02-24T09:47:14.143000Z | Lec. | Уменьшает вклад хорошо классифицируемых примеров, фокусируясь на сложных случаях | false | true | false | |
10,160 | 2026-02-24T09:47:12.613000Z | 2026-02-24T09:47:12.613000Z | Lec. | Focal Loss (FL) [31] – Разработана для задач с экстремальным дисбалансом (например, детекция объектов) | false | true | false | |
10,159 | 2026-02-24T09:47:10.697000Z | 2026-02-24T09:47:10.697000Z | Lec. | Требует ручного подбора или расчета весов | false | true | false | |
10,158 | 2026-02-24T09:47:09.114000Z | 2026-02-24T09:47:09.114000Z | Lec. | Веса обычно задают обратно пропорционально частоте классов, что помогает модели лучше обучаться на миноритарных классах | false | true | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.