id int64 18 18.8k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 14:51:09 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 14:51:09 | doc_name stringclasses 1
value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2
classes | is_sentence bool 2
classes | is_corrected bool 2
classes |
|---|---|---|---|---|---|---|---|---|
10,357 | 2026-02-24T09:52:53.121000Z | 2026-02-24T09:52:53.121000Z | Lec. | C – вес регуляризации LinearSVC | false | false | false | |
10,356 | 2026-02-24T09:52:51.611000Z | 2026-02-24T09:52:51.611000Z | Lec. | Ngram range – размер комбинации слов в TF–IDF | false | true | false | |
10,355 | 2026-02-24T09:52:49.968000Z | 2026-02-24T09:52:49.968000Z | Lec. | Max_df – процент удаления слишком частых слов в документе | false | false | false | |
10,354 | 2026-02-24T09:52:48.318000Z | 2026-02-24T09:52:48.318000Z | Lec. | Для этой комбинации также был сделан подбор гиперпараметров из следующего списка: | false | true | false | |
10,353 | 2026-02-24T09:52:46.793000Z | 2026-02-24T09:52:46.793000Z | Lec. | Лучшим с большим опережением оказался LinearSVC с показателем 0,718 | false | true | false | |
10,352 | 2026-02-24T09:52:45.271000Z | 2026-02-24T09:52:45.271000Z | Lec. | CatBoost Classifier. 0,618 | false | false | false | |
10,351 | 2026-02-24T09:52:43.090000Z | 2026-02-24T09:52:43.090000Z | Lec. | Xgboost Classifier. 0,627 | false | true | false | |
10,350 | 2026-02-24T09:52:41.316000Z | 2026-02-24T09:52:41.316000Z | Lec. | DecisionTreeClassifier. 0,606 | false | false | false | |
10,349 | 2026-02-24T09:52:39.827000Z | 2026-02-24T09:52:39.827000Z | Lec. | KNeighborsClassifier. 0,617 | false | false | false | |
10,348 | 2026-02-24T09:52:38.338000Z | 2026-02-24T09:52:38.338000Z | Lec. | ExtraTreesClassifier. 0,650 | false | false | false | |
10,347 | 2026-02-24T09:52:36.573000Z | 2026-02-24T09:52:36.573000Z | Lec. | GradientBoostingClassifier. 0,658 | false | false | false | |
10,346 | 2026-02-24T09:52:34.851000Z | 2026-02-24T09:52:34.851000Z | Lec. | LogisticRegression. 0,537 | false | false | false | |
10,345 | 2026-02-24T09:52:33.331000Z | 2026-02-24T09:52:33.331000Z | Lec. | LinearSVC. 0,718 | false | false | false | |
10,344 | 2026-02-24T09:52:31.842000Z | 2026-02-24T09:52:31.842000Z | Lec. | RandomForestClassifier. 0,628 | false | false | false | |
10,343 | 2026-02-24T09:52:29.999000Z | 2026-02-24T09:52:30Z | Lec. | F1–weighted среднее | false | false | false | |
10,342 | 2026-02-24T09:52:28.279000Z | 2026-02-24T09:52:28.279000Z | Lec. | Название модели | false | true | false | |
10,341 | 2026-02-24T09:52:26.257000Z | 2026-02-24T09:52:26.257000Z | Lec. | Тестирование классификаторов третьего уровня | false | true | false | |
10,340 | 2026-02-24T09:52:24.715000Z | 2026-02-24T09:52:24.715000Z | Lec. | Результаты можно увидеть в таблице ниже | false | true | false | |
10,339 | 2026-02-24T09:52:22.730000Z | 2026-02-24T09:52:22.730000Z | Lec. | Гиперпараметры TF-IDF для каждой модели одинаковые | true | true | false | |
10,338 | 2026-02-24T09:52:21.242000Z | 2026-02-24T09:52:21.242000Z | Lec. | Для оценки моделей было взято 12 срезов с различными тематиками и длинами, для них получены метрики, а от них было взято среднее | false | true | false | |
10,337 | 2026-02-24T09:52:19.643000Z | 2026-02-24T09:52:19.643000Z | Lec. | Было проведено тестирование различных моделей классификаторов в сочетании с Linear SVC | false | true | false | |
10,336 | 2026-02-24T09:52:17.898000Z | 2026-02-24T09:52:17.898000Z | Lec. | На третьем уровне имеется примерно 424 уникальных срезов датасетов | false | true | false | |
10,335 | 2026-02-24T09:52:16.151000Z | 2026-02-24T09:52:16.151000Z | Lec. | Count Vectorizer. 0,483. 0,245. 0,497 | false | false | false | |
10,334 | 2026-02-24T09:52:14.371000Z | 2026-02-24T09:52:14.371000Z | Lec. | FastText SkipGram. 0,64. 0,41. 0,638 | false | false | false | |
10,333 | 2026-02-24T09:52:12.539000Z | 2026-02-24T09:52:12.539000Z | Lec. | FastText CBOW. 0,45. 0,209. 0,472 | false | false | false | |
10,332 | 2026-02-24T09:52:11.036000Z | 2026-02-24T09:52:11.036000Z | Lec. | Word2Vec SkipGram. 0,66. 0,448. 0,661 | false | false | false | |
10,331 | 2026-02-24T09:52:09.205000Z | 2026-02-24T09:52:09.205000Z | Lec. | Word2Vec CBOW. 0,518. 0,210. 0,431 | false | false | false | |
10,330 | 2026-02-24T09:52:07.472000Z | 2026-02-24T09:52:07.472000Z | Lec. | Модель. f1–weighted. f1–macro. f1–micro | false | false | false | |
10,329 | 2026-02-24T09:52:05.646000Z | 2026-02-24T09:52:05.646000Z | Lec. | Сравнение метрик векторизаторов | false | true | false | |
10,328 | 2026-02-24T09:52:03.773000Z | 2026-02-24T09:52:03.773000Z | Lec. | Результаты представлены в таблице ниже: | false | true | false | |
10,327 | 2026-02-24T09:52:01.828000Z | 2026-02-24T09:52:01.828000Z | Lec. | С ними также были проведен эксперимент на том же наборе данных с Linear SVC | false | true | false | |
10,326 | 2026-02-24T09:52:00.256000Z | 2026-02-24T09:52:00.256000Z | Lec. | К ним также относятся Fast Text [46], CountVectorizer [47], Word2Vec | false | true | false | |
10,325 | 2026-02-24T09:51:58.460000Z | 2026-02-24T09:51:58.460000Z | Lec. | Стоит отметить, что простые эмбеддеры не ограничиваются только TF–IDF | false | true | false | |
10,324 | 2026-02-24T09:51:56.934000Z | 2026-02-24T09:51:56.934000Z | Lec. | Стоит отметить, что TF–IDF также превосходит их по скорости работы и обучения | false | true | false | |
10,323 | 2026-02-24T09:51:55.220000Z | 2026-02-24T09:51:55.220000Z | Lec. | Из таблицы выше очевидно, TF–IDF выигрывает все основные модели по всем метрикам классификации | false | true | false | |
10,322 | 2026-02-24T09:51:53.676000Z | 2026-02-24T09:51:53.676000Z | Lec. | TF–IDF снова оказался победителем с большим отрывом по всем метрикам | false | true | false | |
10,321 | 2026-02-24T09:51:51.926000Z | 2026-02-24T09:51:51.926000Z | Lec. | TF–IDF. 0,751. 0, 61. 0,767 | false | false | false | |
10,320 | 2026-02-24T09:51:50.081000Z | 2026-02-24T09:51:50.081000Z | Lec. | Модель. f1–weighted. f1–macro. f1–micro. sergeyzh/rubert–mini–frida. 0,521. 0,341. 0,513. cointegrated/rubert–tiny2. 0,434. 0,27. 0,431. all–mpnet–base–v2. 0,325. 0,147. 0,31. all–MiniLM–L12–v2. 0,293. 0,1. 0,276. paraphrase–multilingual–mpnet–base–v2. 0,483. 0,3. 0,469. sentence–transformers/paraphrase–multilingual–Mi... | false | false | false | |
10,319 | 2026-02-24T09:51:48.195000Z | 2026-02-24T09:51:48.195000Z | Lec. | Тестирование нейросетевых эмбеддеров | false | true | false | |
10,318 | 2026-02-24T09:51:46.470000Z | 2026-02-24T09:51:46.470000Z | Lec. | Для примера были взяты многозычные и русскоязычные модели Они представлены в таблице ниже: | false | true | false | |
10,317 | 2026-02-24T09:51:44.798000Z | 2026-02-24T09:51:44.798000Z | Lec. | Помимо цельных нейронных моделей были протестированы сочетания нейросетевых эмбеддеров с LinearSVC | false | true | false | |
10,316 | 2026-02-24T09:51:43.214000Z | 2026-02-24T09:51:43.214000Z | Lec. | Более того, с учетом того, что в датасете около 380 уникальных классов, при использовании даже дистиллированных моделей BERT, как в уровне 2, размер итогового приложения получится около 40 Гигабайт, что не допустимо требованиями ВИНИТИ | false | true | false | |
10,315 | 2026-02-24T09:51:41.514000Z | 2026-02-24T09:51:41.514000Z | Lec. | Как мы видим, TF–IDF и Linear SVC превосходит нейросетевые эмбеддеры [45] при гораздо меньшем размере | false | true | false | |
10,314 | 2026-02-24T09:51:39.766000Z | 2026-02-24T09:51:39.766000Z | Lec. | Модели на основе BERT обучались на 4 эпохах | false | true | false | |
10,313 | 2026-02-24T09:51:38.046000Z | 2026-02-24T09:51:38.046000Z | Lec. | TF–IDF LinearSVC. 0,748. 0,585. 0,755. sergeyzh/rubert–mini–frida. 0,688. 0,538. 0,695 | false | false | false | |
10,312 | 2026-02-24T09:51:36.420000Z | 2026-02-24T09:51:36.420000Z | Lec. | Модель. f1–weighted. f1–macro. f1–micro. sergeyzh/rubert–tiny–turbo. 0,690. 0,410. 0,714 | false | false | false | |
10,311 | 2026-02-24T09:51:34.475000Z | 2026-02-24T09:51:34.475000Z | Lec. | Сравнение метрик модели rubert–tiny–turbo с TF–IDF и LinearSVC для среза третьего уровня | false | true | false | |
10,310 | 2026-02-24T09:51:32.800000Z | 2026-02-24T09:51:32.800000Z | Lec. | Результаты представлены в таблице ниже | false | true | false | |
10,309 | 2026-02-24T09:51:30.646000Z | 2026-02-24T09:51:30.646000Z | Lec. | Для того чтобы продемонстрировать это, было сделано сравнение модели rubert–tiny–turbo с небольшой моделью векторизации TF–IDF [43] и линейным классификатором Linear SVC [44] на срезе датасета длиной 612 строк с кодом второго уровня 45.29 – электрические машины | false | true | false | |
10,308 | 2026-02-24T09:51:28.634000Z | 2026-02-24T09:51:28.634000Z | Lec. | Медианное число строк на третьем уровне классификации около 280, поэтому модели с трансформенной архитектурой избыточны | false | true | false | |
10,307 | 2026-02-24T09:51:26.873000Z | 2026-02-24T09:51:26.873000Z | Lec. | Это означает, что модели стали значительно лучше предсказывают маленькие рубрики | false | true | false | |
10,306 | 2026-02-24T09:51:25.125000Z | 2026-02-24T09:51:25.125000Z | Lec. | Для f1_macro прирост составляет от 3 до 5 процентов | false | true | false | |
10,305 | 2026-02-24T09:51:23.420000Z | 2026-02-24T09:51:23.420000Z | Lec. | Из результатов, мы получили прирост от 1.5 до 3 процентов для f1_weighted и f1_micro для каждого датасета второго уровня из представленных | false | true | false | |
10,304 | 2026-02-24T09:51:21.743000Z | 2026-02-24T09:51:21.743000Z | Lec. | CE_weighted. 0,3. 0,407 | false | false | false | |
10,303 | 2026-02-24T09:51:20.028000Z | 2026-02-24T09:51:20.028000Z | Lec. | CE_weighted. 0,2. 0,178. 68. 0,7931. 0,7000. 0,7868 | false | false | false | |
10,302 | 2026-02-24T09:51:18.217000Z | 2026-02-24T09:51:18.217000Z | Lec. | CE_weighted. 0,3. 0,466. 65. 0,8784. 0,8342. 0,8822 | false | false | false | |
10,301 | 2026-02-24T09:51:16.402000Z | 2026-02-24T09:51:16.402000Z | Lec. | CE_weighted. 0,3. 0,466. 76. 0,9014. 0,8908. 0,9014 | false | false | false | |
10,300 | 2026-02-24T09:51:14.677000Z | 2026-02-24T09:51:14.677000Z | Lec. | CE_weighted. 0,3. 0,487. 50. 0,5610. 0,5187. 0,5670 | false | false | false | |
10,299 | 2026-02-24T09:51:13.153000Z | 2026-02-24T09:51:13.153000Z | Lec. | CE_weighted. 0,3. 0,411. 87. 0,6309. 0,4864. 0,6345 | false | false | false | |
10,298 | 2026-02-24T09:51:11.417000Z | 2026-02-24T09:51:11.417000Z | Lec. | CE_weighted. 0,3. 0,338. 31. 0,8953. 0,7564. 0,8956 | false | false | false | |
10,297 | 2026-02-24T09:51:09.650000Z | 2026-02-24T09:51:09.650000Z | Lec. | CE_weighted. 0,2. 0,179. 06. 0,7675. 0,7010. 0,7710 | false | false | false | |
10,296 | 2026-02-24T09:51:07.919000Z | 2026-02-24T09:51:07.919000Z | Lec. | CE_weighted. 0,2. 0,214. 47. 0,7905. 0,5871. 0,8002 | false | false | false | |
10,295 | 2026-02-24T09:51:06.195000Z | 2026-02-24T09:51:06.195000Z | Lec. | Метрики моделей второго уровня с модернизированной функцией потерь. номер среза. f1_weighted. f1_macro. f1_micro. функция потерь. alpha. ratio. 34. 0,8402. 0,6951. 0,8411 | false | false | false | |
10,294 | 2026-02-24T09:51:04.255000Z | 2026-02-24T09:51:04.255000Z | Lec. | Ниже представлена таблица с модернизированной функцией потерь с подобранными alpha.y | false | true | false | |
10,293 | 2026-02-24T09:51:02.735000Z | 2026-02-24T09:51:02.735000Z | Lec. | CE. 68. 0,7851. 0,6872. 0,7823 | false | false | false | |
10,292 | 2026-02-24T09:51:01.309000Z | 2026-02-24T09:51:01.309000Z | Lec. | CE. 65. 0,8690. 0,8194. 0,8736 | false | false | false | |
10,291 | 2026-02-24T09:50:59.596000Z | 2026-02-24T09:50:59.596000Z | Lec. | CE. 76. 0,8935. 0,8740. 0,8978 | false | false | false | |
10,290 | 2026-02-24T09:50:57.970000Z | 2026-02-24T09:50:57.970000Z | Lec. | CE. 50. 0,5176. 0,4862. 0,5322 | false | false | false | |
10,289 | 2026-02-24T09:50:56.251000Z | 2026-02-24T09:50:56.251000Z | Lec. | CE. 87. 0,6309. 0,4864. 0,6345 | false | false | false | |
10,288 | 2026-02-24T09:50:54.834000Z | 2026-02-24T09:50:54.834000Z | Lec. | CE. 31. 0,8855. 0,7498. 0,8864 | false | false | false | |
10,287 | 2026-02-24T09:50:53.289000Z | 2026-02-24T09:50:53.289000Z | Lec. | CE. 06. 0,7673. 0,7021. 0,7665 | false | false | false | |
10,286 | 2026-02-24T09:50:51.684000Z | 2026-02-24T09:50:51.684000Z | Lec. | CE. 47. 0,7675. 0,5779. 0,7798 | false | false | false | |
10,285 | 2026-02-24T09:50:49.789000Z | 2026-02-24T09:50:49.789000Z | Lec. | Функция потерь. 34. 0,8205. 0,6547. 0,8214 | false | false | false | |
10,284 | 2026-02-24T09:50:48.347000Z | 2026-02-24T09:50:48.347000Z | Lec. | Номер среза. f1_weighted. f1_macro. f1_micro | false | false | false | |
10,283 | 2026-02-24T09:50:46.706000Z | 2026-02-24T09:50:46.706000Z | Lec. | Метрики моделей второго уровня со стандартной функцией потерь | false | true | false | |
10,282 | 2026-02-24T09:50:44.857000Z | 2026-02-24T09:50:44.857000Z | Lec. | Ниже приведена таблица со стандартной функцией потерь | false | true | false | |
10,281 | 2026-02-24T09:50:43.369000Z | 2026-02-24T09:50:43.369000Z | Lec. | Методом перебора было выявлено, что пороговым | false | true | false | |
10,280 | 2026-02-24T09:50:41.761000Z | 2026-02-24T09:50:41.761000Z | Lec. | Для его расчета была введена переменная ratio – отношение наибольшего класса ко всему датасету | false | true | false | |
10,279 | 2026-02-24T09:50:39.669000Z | 2026-02-24T09:50:39.669000Z | Lec. | Параметр подбирается перебором | false | true | false | |
10,278 | 2026-02-24T09:50:38.208000Z | 2026-02-24T09:50:38.208000Z | Lec. | У нее есть гиперпараметр alpha, который отвечает за степень, в которую возводятся значения вектора соотношений классов | false | true | false | |
10,277 | 2026-02-24T09:50:36.564000Z | 2026-02-24T09:50:36.564000Z | Lec. | Ввиду того, что каждый датасет внутри имеет разнообразный дисбаланс классов, было принято решение использовать модернизированную функцию потерь Cross entropy weighted, описанная ранее | false | true | false | |
10,276 | 2026-02-24T09:50:34.758000Z | 2026-02-24T09:50:34.758000Z | Lec. | Таким образом мы получили разбиение по 4 длинам датасета: от 2 до 10 тысяч, от 10 до 20 тысяч, до 30 тысяч, и выше 30 000 тысяч | false | true | false | |
10,275 | 2026-02-24T09:50:33.150000Z | 2026-02-24T09:50:33.150000Z | Lec. | Оптимальные параметры: weight decay: 0,005, batch size: 8, learning rate 6e–5 | false | false | false | |
10,274 | 2026-02-24T09:50:31.314000Z | 2026-02-24T09:50:31.314000Z | Lec. | Размер 32889 | false | false | false | |
10,273 | 2026-02-24T09:50:29.779000Z | 2026-02-24T09:50:29.779000Z | Lec. | Оптимальные параметры: weight_decay 0,007, batch size: 8, learning rate 1e–4. 34 – Биология | false | true | false | |
10,272 | 2026-02-24T09:50:28.054000Z | 2026-02-24T09:50:28.054000Z | Lec. | Размер 11082 | false | false | false | |
10,271 | 2026-02-24T09:50:26.503000Z | 2026-02-24T09:50:26.503000Z | Lec. | Оптимальные параметры: weight decay 0,05, batch size: 10, learning rate 3e–4. 06 – Экономика и экономические науки | false | true | false | |
10,270 | 2026-02-24T09:50:24.718000Z | 2026-02-24T09:50:24.718000Z | Lec. | Размер 3473 | false | false | false | |
10,269 | 2026-02-24T09:50:23.178000Z | 2026-02-24T09:50:23.179000Z | Lec. | Оптимальные параметры: weight decay 0,05, batch size: 10, learning rate 8e–5. 65 – Пищевая промышленность | false | true | false | |
10,268 | 2026-02-24T09:50:21.575000Z | 2026-02-24T09:50:21.576000Z | Lec. | Размер 20719 | false | false | false | |
10,267 | 2026-02-24T09:50:20.012000Z | 2026-02-24T09:50:20.012000Z | Lec. | Для тестирования выбрали следующие классы второго уровня:. 31 – Химия | false | true | false | |
10,266 | 2026-02-24T09:50:18.445000Z | 2026-02-24T09:50:18.445000Z | Lec. | Значения для learning rate отличаются от предыдущей модели первого уровня, в связи с разницей в их размерах | false | true | false | |
10,265 | 2026-02-24T09:50:16.697000Z | 2026-02-24T09:50:16.697000Z | Lec. | Параметры поиска следующие:. learning rate: 6e–5, 8e–5, 1e–4, 3e–4;. weight decay: 0,007, 0.009, 0,01, 0,03, 0,05;. batch size: 6, 8, 10, 12, 16 | false | false | false | |
10,264 | 2026-02-24T09:50:15.125000Z | 2026-02-24T09:50:15.125000Z | Lec. | В виду того, что размер датасетов разный и варьируется от 20 000 до 60 000, было принято сделать grid search для четырех разных срезов датасета с разным количеством строк | true | true | false | |
10,263 | 2026-02-24T09:50:13.018000Z | 2026-02-24T09:50:13.018000Z | Lec. | Также как и для второго уровня, здесь был применен метод Grid Search по тем же параметрам | false | true | false | |
10,262 | 2026-02-24T09:50:11.503000Z | 2026-02-24T09:50:11.503000Z | Lec. | Исходя из результатов, лучшим выбором с незначительным перевесом является модель rubert–tiny–turbo | false | true | false | |
10,261 | 2026-02-24T09:50:09.978000Z | 2026-02-24T09:50:09.978000Z | Lec. | Rubert–tiny. 0,887. 0,852. 0,889 | false | true | false | |
10,260 | 2026-02-24T09:50:08.085000Z | 2026-02-24T09:50:08.085000Z | Lec. | Название модели. f1–weighted. f1–macro. f1–micro. rubert–tiny–turbo. 0,920. 0,891. 0,920. rubert–tiny2. 0,911. 0,873. 0,910 | false | false | false | |
10,259 | 2026-02-24T09:50:06.286000Z | 2026-02-24T09:50:06.286000Z | Lec. | Сравнение моделей второго уровня | false | true | false | |
10,258 | 2026-02-24T09:50:04.076000Z | 2026-02-24T09:50:04.076000Z | Lec. | Ниже в таблице 3 приведены результаты тестирования на одном из 40 классов первого уровня, длинной 11459 строк в течение 2 эпох | false | false | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.