id
int64
18
18.8k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 14:51:09
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 14:51:09
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
10,357
2026-02-24T09:52:53.121000Z
2026-02-24T09:52:53.121000Z
Lec.
C – вес регуляризации LinearSVC
false
false
false
10,356
2026-02-24T09:52:51.611000Z
2026-02-24T09:52:51.611000Z
Lec.
Ngram range – размер комбинации слов в TF–IDF
false
true
false
10,355
2026-02-24T09:52:49.968000Z
2026-02-24T09:52:49.968000Z
Lec.
Max_df – процент удаления слишком частых слов в документе
false
false
false
10,354
2026-02-24T09:52:48.318000Z
2026-02-24T09:52:48.318000Z
Lec.
Для этой комбинации также был сделан подбор гиперпараметров из следующего списка:
false
true
false
10,353
2026-02-24T09:52:46.793000Z
2026-02-24T09:52:46.793000Z
Lec.
Лучшим с большим опережением оказался LinearSVC с показателем 0,718
false
true
false
10,352
2026-02-24T09:52:45.271000Z
2026-02-24T09:52:45.271000Z
Lec.
CatBoost Classifier. 0,618
false
false
false
10,351
2026-02-24T09:52:43.090000Z
2026-02-24T09:52:43.090000Z
Lec.
Xgboost Classifier. 0,627
false
true
false
10,350
2026-02-24T09:52:41.316000Z
2026-02-24T09:52:41.316000Z
Lec.
DecisionTreeClassifier. 0,606
false
false
false
10,349
2026-02-24T09:52:39.827000Z
2026-02-24T09:52:39.827000Z
Lec.
KNeighborsClassifier. 0,617
false
false
false
10,348
2026-02-24T09:52:38.338000Z
2026-02-24T09:52:38.338000Z
Lec.
ExtraTreesClassifier. 0,650
false
false
false
10,347
2026-02-24T09:52:36.573000Z
2026-02-24T09:52:36.573000Z
Lec.
GradientBoostingClassifier. 0,658
false
false
false
10,346
2026-02-24T09:52:34.851000Z
2026-02-24T09:52:34.851000Z
Lec.
LogisticRegression. 0,537
false
false
false
10,345
2026-02-24T09:52:33.331000Z
2026-02-24T09:52:33.331000Z
Lec.
LinearSVC. 0,718
false
false
false
10,344
2026-02-24T09:52:31.842000Z
2026-02-24T09:52:31.842000Z
Lec.
RandomForestClassifier. 0,628
false
false
false
10,343
2026-02-24T09:52:29.999000Z
2026-02-24T09:52:30Z
Lec.
F1–weighted среднее
false
false
false
10,342
2026-02-24T09:52:28.279000Z
2026-02-24T09:52:28.279000Z
Lec.
Название модели
false
true
false
10,341
2026-02-24T09:52:26.257000Z
2026-02-24T09:52:26.257000Z
Lec.
Тестирование классификаторов третьего уровня
false
true
false
10,340
2026-02-24T09:52:24.715000Z
2026-02-24T09:52:24.715000Z
Lec.
Результаты можно увидеть в таблице ниже
false
true
false
10,339
2026-02-24T09:52:22.730000Z
2026-02-24T09:52:22.730000Z
Lec.
Гиперпараметры TF-IDF для каждой модели одинаковые
true
true
false
10,338
2026-02-24T09:52:21.242000Z
2026-02-24T09:52:21.242000Z
Lec.
Для оценки моделей было взято 12 срезов с различными тематиками и длинами, для них получены метрики, а от них было взято среднее
false
true
false
10,337
2026-02-24T09:52:19.643000Z
2026-02-24T09:52:19.643000Z
Lec.
Было проведено тестирование различных моделей классификаторов в сочетании с Linear SVC
false
true
false
10,336
2026-02-24T09:52:17.898000Z
2026-02-24T09:52:17.898000Z
Lec.
На третьем уровне имеется примерно 424 уникальных срезов датасетов
false
true
false
10,335
2026-02-24T09:52:16.151000Z
2026-02-24T09:52:16.151000Z
Lec.
Count Vectorizer. 0,483. 0,245. 0,497
false
false
false
10,334
2026-02-24T09:52:14.371000Z
2026-02-24T09:52:14.371000Z
Lec.
FastText SkipGram. 0,64. 0,41. 0,638
false
false
false
10,333
2026-02-24T09:52:12.539000Z
2026-02-24T09:52:12.539000Z
Lec.
FastText CBOW. 0,45. 0,209. 0,472
false
false
false
10,332
2026-02-24T09:52:11.036000Z
2026-02-24T09:52:11.036000Z
Lec.
Word2Vec SkipGram. 0,66. 0,448. 0,661
false
false
false
10,331
2026-02-24T09:52:09.205000Z
2026-02-24T09:52:09.205000Z
Lec.
Word2Vec CBOW. 0,518. 0,210. 0,431
false
false
false
10,330
2026-02-24T09:52:07.472000Z
2026-02-24T09:52:07.472000Z
Lec.
Модель. f1–weighted. f1–macro. f1–micro
false
false
false
10,329
2026-02-24T09:52:05.646000Z
2026-02-24T09:52:05.646000Z
Lec.
Сравнение метрик векторизаторов
false
true
false
10,328
2026-02-24T09:52:03.773000Z
2026-02-24T09:52:03.773000Z
Lec.
Результаты представлены в таблице ниже:
false
true
false
10,327
2026-02-24T09:52:01.828000Z
2026-02-24T09:52:01.828000Z
Lec.
С ними также были проведен эксперимент на том же наборе данных с Linear SVC
false
true
false
10,326
2026-02-24T09:52:00.256000Z
2026-02-24T09:52:00.256000Z
Lec.
К ним также относятся Fast Text [46], CountVectorizer [47], Word2Vec
false
true
false
10,325
2026-02-24T09:51:58.460000Z
2026-02-24T09:51:58.460000Z
Lec.
Стоит отметить, что простые эмбеддеры не ограничиваются только TF–IDF
false
true
false
10,324
2026-02-24T09:51:56.934000Z
2026-02-24T09:51:56.934000Z
Lec.
Стоит отметить, что TF–IDF также превосходит их по скорости работы и обучения
false
true
false
10,323
2026-02-24T09:51:55.220000Z
2026-02-24T09:51:55.220000Z
Lec.
Из таблицы выше очевидно, TF–IDF выигрывает все основные модели по всем метрикам классификации
false
true
false
10,322
2026-02-24T09:51:53.676000Z
2026-02-24T09:51:53.676000Z
Lec.
TF–IDF снова оказался победителем с большим отрывом по всем метрикам
false
true
false
10,321
2026-02-24T09:51:51.926000Z
2026-02-24T09:51:51.926000Z
Lec.
TF–IDF. 0,751. 0, 61. 0,767
false
false
false
10,320
2026-02-24T09:51:50.081000Z
2026-02-24T09:51:50.081000Z
Lec.
Модель. f1–weighted. f1–macro. f1–micro. sergeyzh/rubert–mini–frida. 0,521. 0,341. 0,513. cointegrated/rubert–tiny2. 0,434. 0,27. 0,431. all–mpnet–base–v2. 0,325. 0,147. 0,31. all–MiniLM–L12–v2. 0,293. 0,1. 0,276. paraphrase–multilingual–mpnet–base–v2. 0,483. 0,3. 0,469. sentence–transformers/paraphrase–multilingual–Mi...
false
false
false
10,319
2026-02-24T09:51:48.195000Z
2026-02-24T09:51:48.195000Z
Lec.
Тестирование нейросетевых эмбеддеров
false
true
false
10,318
2026-02-24T09:51:46.470000Z
2026-02-24T09:51:46.470000Z
Lec.
Для примера были взяты многозычные и русскоязычные модели Они представлены в таблице ниже:
false
true
false
10,317
2026-02-24T09:51:44.798000Z
2026-02-24T09:51:44.798000Z
Lec.
Помимо цельных нейронных моделей были протестированы сочетания нейросетевых эмбеддеров с LinearSVC
false
true
false
10,316
2026-02-24T09:51:43.214000Z
2026-02-24T09:51:43.214000Z
Lec.
Более того, с учетом того, что в датасете около 380 уникальных классов, при использовании даже дистиллированных моделей BERT, как в уровне 2, размер итогового приложения получится около 40 Гигабайт, что не допустимо требованиями ВИНИТИ
false
true
false
10,315
2026-02-24T09:51:41.514000Z
2026-02-24T09:51:41.514000Z
Lec.
Как мы видим, TF–IDF и Linear SVC превосходит нейросетевые эмбеддеры [45] при гораздо меньшем размере
false
true
false
10,314
2026-02-24T09:51:39.766000Z
2026-02-24T09:51:39.766000Z
Lec.
Модели на основе BERT обучались на 4 эпохах
false
true
false
10,313
2026-02-24T09:51:38.046000Z
2026-02-24T09:51:38.046000Z
Lec.
TF–IDF LinearSVC. 0,748. 0,585. 0,755. sergeyzh/rubert–mini–frida. 0,688. 0,538. 0,695
false
false
false
10,312
2026-02-24T09:51:36.420000Z
2026-02-24T09:51:36.420000Z
Lec.
Модель. f1–weighted. f1–macro. f1–micro. sergeyzh/rubert–tiny–turbo. 0,690. 0,410. 0,714
false
false
false
10,311
2026-02-24T09:51:34.475000Z
2026-02-24T09:51:34.475000Z
Lec.
Сравнение метрик модели rubert–tiny–turbo с TF–IDF и LinearSVC для среза третьего уровня
false
true
false
10,310
2026-02-24T09:51:32.800000Z
2026-02-24T09:51:32.800000Z
Lec.
Результаты представлены в таблице ниже
false
true
false
10,309
2026-02-24T09:51:30.646000Z
2026-02-24T09:51:30.646000Z
Lec.
Для того чтобы продемонстрировать это, было сделано сравнение модели rubert–tiny–turbo с небольшой моделью векторизации TF–IDF [43] и линейным классификатором Linear SVC [44] на срезе датасета длиной 612 строк с кодом второго уровня 45.29 – электрические машины
false
true
false
10,308
2026-02-24T09:51:28.634000Z
2026-02-24T09:51:28.634000Z
Lec.
Медианное число строк на третьем уровне классификации около 280, поэтому модели с трансформенной архитектурой избыточны
false
true
false
10,307
2026-02-24T09:51:26.873000Z
2026-02-24T09:51:26.873000Z
Lec.
Это означает, что модели стали значительно лучше предсказывают маленькие рубрики
false
true
false
10,306
2026-02-24T09:51:25.125000Z
2026-02-24T09:51:25.125000Z
Lec.
Для f1_macro прирост составляет от 3 до 5 процентов
false
true
false
10,305
2026-02-24T09:51:23.420000Z
2026-02-24T09:51:23.420000Z
Lec.
Из результатов, мы получили прирост от 1.5 до 3 процентов для f1_weighted и f1_micro для каждого датасета второго уровня из представленных
false
true
false
10,304
2026-02-24T09:51:21.743000Z
2026-02-24T09:51:21.743000Z
Lec.
CE_weighted. 0,3. 0,407
false
false
false
10,303
2026-02-24T09:51:20.028000Z
2026-02-24T09:51:20.028000Z
Lec.
CE_weighted. 0,2. 0,178. 68. 0,7931. 0,7000. 0,7868
false
false
false
10,302
2026-02-24T09:51:18.217000Z
2026-02-24T09:51:18.217000Z
Lec.
CE_weighted. 0,3. 0,466. 65. 0,8784. 0,8342. 0,8822
false
false
false
10,301
2026-02-24T09:51:16.402000Z
2026-02-24T09:51:16.402000Z
Lec.
CE_weighted. 0,3. 0,466. 76. 0,9014. 0,8908. 0,9014
false
false
false
10,300
2026-02-24T09:51:14.677000Z
2026-02-24T09:51:14.677000Z
Lec.
CE_weighted. 0,3. 0,487. 50. 0,5610. 0,5187. 0,5670
false
false
false
10,299
2026-02-24T09:51:13.153000Z
2026-02-24T09:51:13.153000Z
Lec.
CE_weighted. 0,3. 0,411. 87. 0,6309. 0,4864. 0,6345
false
false
false
10,298
2026-02-24T09:51:11.417000Z
2026-02-24T09:51:11.417000Z
Lec.
CE_weighted. 0,3. 0,338. 31. 0,8953. 0,7564. 0,8956
false
false
false
10,297
2026-02-24T09:51:09.650000Z
2026-02-24T09:51:09.650000Z
Lec.
CE_weighted. 0,2. 0,179. 06. 0,7675. 0,7010. 0,7710
false
false
false
10,296
2026-02-24T09:51:07.919000Z
2026-02-24T09:51:07.919000Z
Lec.
CE_weighted. 0,2. 0,214. 47. 0,7905. 0,5871. 0,8002
false
false
false
10,295
2026-02-24T09:51:06.195000Z
2026-02-24T09:51:06.195000Z
Lec.
Метрики моделей второго уровня с модернизированной функцией потерь. номер среза. f1_weighted. f1_macro. f1_micro. функция потерь. alpha. ratio. 34. 0,8402. 0,6951. 0,8411
false
false
false
10,294
2026-02-24T09:51:04.255000Z
2026-02-24T09:51:04.255000Z
Lec.
Ниже представлена таблица с модернизированной функцией потерь с подобранными alpha.y
false
true
false
10,293
2026-02-24T09:51:02.735000Z
2026-02-24T09:51:02.735000Z
Lec.
CE. 68. 0,7851. 0,6872. 0,7823
false
false
false
10,292
2026-02-24T09:51:01.309000Z
2026-02-24T09:51:01.309000Z
Lec.
CE. 65. 0,8690. 0,8194. 0,8736
false
false
false
10,291
2026-02-24T09:50:59.596000Z
2026-02-24T09:50:59.596000Z
Lec.
CE. 76. 0,8935. 0,8740. 0,8978
false
false
false
10,290
2026-02-24T09:50:57.970000Z
2026-02-24T09:50:57.970000Z
Lec.
CE. 50. 0,5176. 0,4862. 0,5322
false
false
false
10,289
2026-02-24T09:50:56.251000Z
2026-02-24T09:50:56.251000Z
Lec.
CE. 87. 0,6309. 0,4864. 0,6345
false
false
false
10,288
2026-02-24T09:50:54.834000Z
2026-02-24T09:50:54.834000Z
Lec.
CE. 31. 0,8855. 0,7498. 0,8864
false
false
false
10,287
2026-02-24T09:50:53.289000Z
2026-02-24T09:50:53.289000Z
Lec.
CE. 06. 0,7673. 0,7021. 0,7665
false
false
false
10,286
2026-02-24T09:50:51.684000Z
2026-02-24T09:50:51.684000Z
Lec.
CE. 47. 0,7675. 0,5779. 0,7798
false
false
false
10,285
2026-02-24T09:50:49.789000Z
2026-02-24T09:50:49.789000Z
Lec.
Функция потерь. 34. 0,8205. 0,6547. 0,8214
false
false
false
10,284
2026-02-24T09:50:48.347000Z
2026-02-24T09:50:48.347000Z
Lec.
Номер среза. f1_weighted. f1_macro. f1_micro
false
false
false
10,283
2026-02-24T09:50:46.706000Z
2026-02-24T09:50:46.706000Z
Lec.
Метрики моделей второго уровня со стандартной функцией потерь
false
true
false
10,282
2026-02-24T09:50:44.857000Z
2026-02-24T09:50:44.857000Z
Lec.
Ниже приведена таблица со стандартной функцией потерь
false
true
false
10,281
2026-02-24T09:50:43.369000Z
2026-02-24T09:50:43.369000Z
Lec.
Методом перебора было выявлено, что пороговым
false
true
false
10,280
2026-02-24T09:50:41.761000Z
2026-02-24T09:50:41.761000Z
Lec.
Для его расчета была введена переменная ratio – отношение наибольшего класса ко всему датасету
false
true
false
10,279
2026-02-24T09:50:39.669000Z
2026-02-24T09:50:39.669000Z
Lec.
Параметр подбирается перебором
false
true
false
10,278
2026-02-24T09:50:38.208000Z
2026-02-24T09:50:38.208000Z
Lec.
У нее есть гиперпараметр alpha, который отвечает за степень, в которую возводятся значения вектора соотношений классов
false
true
false
10,277
2026-02-24T09:50:36.564000Z
2026-02-24T09:50:36.564000Z
Lec.
Ввиду того, что каждый датасет внутри имеет разнообразный дисбаланс классов, было принято решение использовать модернизированную функцию потерь Cross entropy weighted, описанная ранее
false
true
false
10,276
2026-02-24T09:50:34.758000Z
2026-02-24T09:50:34.758000Z
Lec.
Таким образом мы получили разбиение по 4 длинам датасета: от 2 до 10 тысяч, от 10 до 20 тысяч, до 30 тысяч, и выше 30 000 тысяч
false
true
false
10,275
2026-02-24T09:50:33.150000Z
2026-02-24T09:50:33.150000Z
Lec.
Оптимальные параметры: weight decay: 0,005, batch size: 8, learning rate 6e–5
false
false
false
10,274
2026-02-24T09:50:31.314000Z
2026-02-24T09:50:31.314000Z
Lec.
Размер 32889
false
false
false
10,273
2026-02-24T09:50:29.779000Z
2026-02-24T09:50:29.779000Z
Lec.
Оптимальные параметры: weight_decay 0,007, batch size: 8, learning rate 1e–4. 34 – Биология
false
true
false
10,272
2026-02-24T09:50:28.054000Z
2026-02-24T09:50:28.054000Z
Lec.
Размер 11082
false
false
false
10,271
2026-02-24T09:50:26.503000Z
2026-02-24T09:50:26.503000Z
Lec.
Оптимальные параметры: weight decay 0,05, batch size: 10, learning rate 3e–4. 06 – Экономика и экономические науки
false
true
false
10,270
2026-02-24T09:50:24.718000Z
2026-02-24T09:50:24.718000Z
Lec.
Размер 3473
false
false
false
10,269
2026-02-24T09:50:23.178000Z
2026-02-24T09:50:23.179000Z
Lec.
Оптимальные параметры: weight decay 0,05, batch size: 10, learning rate 8e–5. 65 – Пищевая промышленность
false
true
false
10,268
2026-02-24T09:50:21.575000Z
2026-02-24T09:50:21.576000Z
Lec.
Размер 20719
false
false
false
10,267
2026-02-24T09:50:20.012000Z
2026-02-24T09:50:20.012000Z
Lec.
Для тестирования выбрали следующие классы второго уровня:. 31 – Химия
false
true
false
10,266
2026-02-24T09:50:18.445000Z
2026-02-24T09:50:18.445000Z
Lec.
Значения для learning rate отличаются от предыдущей модели первого уровня, в связи с разницей в их размерах
false
true
false
10,265
2026-02-24T09:50:16.697000Z
2026-02-24T09:50:16.697000Z
Lec.
Параметры поиска следующие:. learning rate: 6e–5, 8e–5, 1e–4, 3e–4;. weight decay: 0,007, 0.009, 0,01, 0,03, 0,05;. batch size: 6, 8, 10, 12, 16
false
false
false
10,264
2026-02-24T09:50:15.125000Z
2026-02-24T09:50:15.125000Z
Lec.
В виду того, что размер датасетов разный и варьируется от 20 000 до 60 000, было принято сделать grid search для четырех разных срезов датасета с разным количеством строк
true
true
false
10,263
2026-02-24T09:50:13.018000Z
2026-02-24T09:50:13.018000Z
Lec.
Также как и для второго уровня, здесь был применен метод Grid Search по тем же параметрам
false
true
false
10,262
2026-02-24T09:50:11.503000Z
2026-02-24T09:50:11.503000Z
Lec.
Исходя из результатов, лучшим выбором с незначительным перевесом является модель rubert–tiny–turbo
false
true
false
10,261
2026-02-24T09:50:09.978000Z
2026-02-24T09:50:09.978000Z
Lec.
Rubert–tiny. 0,887. 0,852. 0,889
false
true
false
10,260
2026-02-24T09:50:08.085000Z
2026-02-24T09:50:08.085000Z
Lec.
Название модели. f1–weighted. f1–macro. f1–micro. rubert–tiny–turbo. 0,920. 0,891. 0,920. rubert–tiny2. 0,911. 0,873. 0,910
false
false
false
10,259
2026-02-24T09:50:06.286000Z
2026-02-24T09:50:06.286000Z
Lec.
Сравнение моделей второго уровня
false
true
false
10,258
2026-02-24T09:50:04.076000Z
2026-02-24T09:50:04.076000Z
Lec.
Ниже в таблице 3 приведены результаты тестирования на одном из 40 классов первого уровня, длинной 11459 строк в течение 2 эпох
false
false
false