id
int64
18
21.1k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 16:54:39
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 16:54:39
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
10,407
2026-02-24T09:54:21.462000Z
2026-02-24T09:54:21.462000Z
Lec.
Необязательный
false
true
false
10,406
2026-02-24T09:54:19.312000Z
2026-02-24T09:54:19.312000Z
Lec.
Необязательный. -l3
false
true
false
10,405
2026-02-24T09:54:17.684000Z
2026-02-24T09:54:17.684000Z
Lec.
Порог уверенности. модели в предсказании для второго уровня в процентах
false
true
false
10,404
2026-02-24T09:54:16.121000Z
2026-02-24T09:54:16.121000Z
Lec.
Необязательный. -l2
false
true
false
10,403
2026-02-24T09:54:14.466000Z
2026-02-24T09:54:14.466000Z
Lec.
Минимальный порог уверенности модели в предсказании для первого уровня в процентах
false
true
false
10,402
2026-02-24T09:54:12.831000Z
2026-02-24T09:54:12.831000Z
Lec.
Обязательный. -l1
false
true
false
10,401
2026-02-24T09:54:11.137000Z
2026-02-24T09:54:11.137000Z
Lec.
Путь к файлу с результатами
false
true
false
10,400
2026-02-24T09:54:09.164000Z
2026-02-24T09:54:09.164000Z
Lec.
Обязательный. -o
false
true
false
10,399
2026-02-24T09:54:07.303000Z
2026-02-24T09:54:07.303000Z
Lec.
Путь к фалу с работами для классификации
false
true
false
10,398
2026-02-24T09:54:05.771000Z
2026-02-24T09:54:05.772000Z
Lec.
Параметры запуска консольного приложения
false
true
false
10,397
2026-02-24T09:54:04.332000Z
2026-02-24T09:54:04.332000Z
Lec.
Для быстрой и удобной работы с приложением созданы флаги, которые позволяют сразу указывать параметры
false
true
false
10,396
2026-02-24T09:54:02.323000Z
2026-02-24T09:54:02.323000Z
Lec.
Программа может принимать на вход файлы excel или csv и выдает файл в таком же формате с ответами
false
true
false
10,395
2026-02-24T09:54:00.762000Z
2026-02-24T09:54:00.762000Z
Lec.
Приложение скомпилировано под OS Windows 11
false
true
false
10,394
2026-02-24T09:53:59.256000Z
2026-02-24T09:53:59.256000Z
Lec.
Программа была скомпилирована при помощи библиотеки nuitka, которая компилирует программу в код C++ для ускорения работы
false
true
false
10,393
2026-02-24T09:53:57.711000Z
2026-02-24T09:53:57.712000Z
Lec.
Приложение состоит из шести частей:. файл main.py;. папка с моделью первого уровня;. папка с моделями второго уровня;. папка с моделями третьего уровня;. папка для хранения таблиц для классификатора;. readme инструкция по работе
false
false
false
10,392
2026-02-24T09:53:55.858000Z
2026-02-24T09:53:55.858000Z
Lec.
Приложение создано на Python версии 3.12 и использует библиотеки:. 1. numpy==1.26.4. 2. pandas==2.2.2. 3. scikit_learn==1.4.0. 4. torch==2.3.0.dev20231226+cu121. 5. transformers==4.37.2. 6. joblib==1.4.2. 7. nltk==3.9.1
false
false
false
10,391
2026-02-24T09:53:54.059000Z
2026-02-24T09:53:54.059000Z
Lec.
Приложение применяет разработанный ранее алгоритм, который позволяет последовательно задействовать каскад моделей для классификации каждого уровня
false
true
false
10,390
2026-02-24T09:53:52.522000Z
2026-02-24T09:53:52.522000Z
Lec.
Она предоставляет пользователям возможность классифицировать значительные объемы текстов с помощью команд
false
true
false
10,389
2026-02-24T09:53:50.764000Z
2026-02-24T09:53:50.764000Z
Lec.
Консольная утилита служит интерфейсом для работы с моделями BERT
false
true
false
10,388
2026-02-24T09:53:48.972000Z
2026-02-24T09:53:48.972000Z
Lec.
В отличие от обычной F1, где ошибка классификации считается одинаково критичной независимо от типа класса, иерархическая F1 вводит штрафы за ошибки в зависимости от того, насколько далеко в иерархии находятся ошибочно предсказанные и истинные классы
false
true
false
10,387
2026-02-24T09:53:47.312000Z
2026-02-24T09:53:47.313000Z
Lec.
Иерархическая F1 (Hierarchical F1–score, H–F1) [49] – модификация стандартной F1–метрики, которая учитывает структуру взаимосвязей между классами
false
true
false
10,386
2026-02-24T09:53:45.563000Z
2026-02-24T09:53:45.563000Z
Lec.
F1. 34. 06. 28. 20. 31. 52. 76. 64. 61. 30. 90. 65. 29. 87. 49. 15. 44. 27. 70. 82. 38. 81. 37. 41. 53. 50. 60. 36. 73. 39. 89. 66. 47. 45. 68. 82
false
false
false
10,385
2026-02-24T09:53:43.650000Z
2026-02-24T09:53:43.650000Z
Lec.
Confusion matrix для первого уровня
false
true
false
10,384
2026-02-24T09:53:41.689000Z
2026-02-24T09:53:41.689000Z
Lec.
F1 здесь среднее гармоническое между точностью и полнотой
false
true
false
10,383
2026-02-24T09:53:39.919000Z
2026-02-24T09:53:39.919000Z
Lec.
Ниже представлена confusion matrix [48] для классификатора первого уровня
false
true
false
10,382
2026-02-24T09:53:38.212000Z
2026-02-24T09:53:38.212000Z
Lec.
Для третьего уровня не учитывались рубрики, в которых был только 1 класс, а также те, где длина в датасете меньше 30
false
true
false
10,381
2026-02-24T09:53:36.636000Z
2026-02-24T09:53:36.636000Z
Lec.
Дальнейший прирост точности составлял менее 0,04
false
true
false
10,380
2026-02-24T09:53:34.926000Z
2026-02-24T09:53:34.926000Z
Lec.
Каждая модель 2 уровня обучалась на 4 эпохах, так как на таком количестве все модели сходились
false
true
false
10,379
2026-02-24T09:53:33.258000Z
2026-02-24T09:53:33.258000Z
Lec.
В некоторых срезах второго уровня только 1 класс, такие классы не учитывались при подсчете средних медианных f1
false
true
false
10,378
2026-02-24T09:53:31.605000Z
2026-02-24T09:53:31.605000Z
Lec.
F1_micro. 1. 2. 0,85. 0,78. 0,85. 3. 0,78. 0,72. 0,78
false
false
false
10,377
2026-02-24T09:53:29.860000Z
2026-02-24T09:53:29.860000Z
Lec.
F1_weighted
false
false
false
10,376
2026-02-24T09:53:28.227000Z
2026-02-24T09:53:28.227000Z
Lec.
Итоговые результаты для всех трех уровней
true
true
false
10,375
2026-02-24T09:53:24.317000Z
2026-02-24T09:53:24.317000Z
Lec.
Для рубрик второго и третьего уровня метрики усреднялись
false
true
false
10,374
2026-02-24T09:53:22.726000Z
2026-02-24T09:53:22.726000Z
Lec.
Результаты для каждого уровня классификации представлены в таблице ниже
false
true
false
10,373
2026-02-24T09:53:21.195000Z
2026-02-24T09:53:21.195000Z
Lec.
Это, вероятно, можно объяснить тем, что такие токены встречаются не во всех текстах, поскольку они были сформированы в процессе обработки формул
false
true
false
10,372
2026-02-24T09:53:19.549000Z
2026-02-24T09:53:19.549000Z
Lec.
Следует отметить, что специальные токены демонстрируют низкую корреляцию с другими показателями
false
true
false
10,371
2026-02-24T09:53:17.919000Z
2026-02-24T09:53:17.919000Z
Lec.
Наиболее значимым фактором в данном контексте выступает общая длина строк, а также уровень лексического разнообразия текстов
false
true
false
10,370
2026-02-24T09:53:16.158000Z
2026-02-24T09:53:16.158000Z
Lec.
Лексическое разнообразие. 0,31. 2, 17 × 10–11
false
true
false
10,369
2026-02-24T09:53:14.427000Z
2026-02-24T09:53:14.427000Z
Lec.
Доля спец токенов. 0,19. 5,51 × 10–5
false
true
false
10,368
2026-02-24T09:53:12.600000Z
2026-02-24T09:53:12.600000Z
Lec.
Медианная длина одной строки. 0,59. 3,27 × 10–42
false
false
false
10,367
2026-02-24T09:53:10.730000Z
2026-02-24T09:53:10.730000Z
Lec.
Средняя длинна одной строки. 0,64. 2,28 ×10–50
false
false
false
10,366
2026-02-24T09:53:09.121000Z
2026-02-24T09:53:09.121000Z
Lec.
Количество строк внутри массива. 0,19. 5,35 × 10–5
false
false
false
10,365
2026-02-24T09:53:07.313000Z
2026-02-24T09:53:07.313000Z
Lec.
Корреляция с f1 weighted. p–value
false
false
false
10,364
2026-02-24T09:53:05.506000Z
2026-02-24T09:53:05.506000Z
Lec.
Корреляции признаков с качеством предсказания
false
true
false
10,363
2026-02-24T09:53:03.239000Z
2026-02-24T09:53:03.239000Z
Lec.
Также был проведено исследование зависимостей качества классификации от средней и медианной длин текста в срезе, лексическое разнообразие (количество уникальных слов), количество строк в самом срезе, количество специальных токенов (были созданы при предобработке массива данных)
false
true
false
10,362
2026-02-24T09:53:01.241000Z
2026-02-24T09:53:01.241000Z
Lec.
После grid Search удалось повысить метрику f1_weighted до 0,75
false
true
false
10,361
2026-02-24T09:52:59.672000Z
2026-02-24T09:52:59.672000Z
Lec.
Tol – критерий остановки в LinearSVC
false
true
false
10,360
2026-02-24T09:52:58.130000Z
2026-02-24T09:52:58.130000Z
Lec.
Penalty – тип регуляризации в LinearSVC
false
true
false
10,359
2026-02-24T09:52:56.185000Z
2026-02-24T09:52:56.185000Z
Lec.
Loss – функция потерь в LinearSVC
false
false
false
10,358
2026-02-24T09:52:54.601000Z
2026-02-24T09:52:54.601000Z
Lec.
Fit intercept – добавление свободного члена в LinearSVC
false
true
false
10,357
2026-02-24T09:52:53.121000Z
2026-02-24T09:52:53.121000Z
Lec.
C – вес регуляризации LinearSVC
false
false
false
10,356
2026-02-24T09:52:51.611000Z
2026-02-24T09:52:51.611000Z
Lec.
Ngram range – размер комбинации слов в TF–IDF
false
true
false
10,355
2026-02-24T09:52:49.968000Z
2026-02-24T09:52:49.968000Z
Lec.
Max_df – процент удаления слишком частых слов в документе
false
false
false
10,354
2026-02-24T09:52:48.318000Z
2026-02-24T09:52:48.318000Z
Lec.
Для этой комбинации также был сделан подбор гиперпараметров из следующего списка:
false
true
false
10,353
2026-02-24T09:52:46.793000Z
2026-02-24T09:52:46.793000Z
Lec.
Лучшим с большим опережением оказался LinearSVC с показателем 0,718
false
true
false
10,352
2026-02-24T09:52:45.271000Z
2026-02-24T09:52:45.271000Z
Lec.
CatBoost Classifier. 0,618
false
false
false
10,351
2026-02-24T09:52:43.090000Z
2026-02-24T09:52:43.090000Z
Lec.
Xgboost Classifier. 0,627
false
true
false
10,350
2026-02-24T09:52:41.316000Z
2026-02-24T09:52:41.316000Z
Lec.
DecisionTreeClassifier. 0,606
false
false
false
10,349
2026-02-24T09:52:39.827000Z
2026-02-24T09:52:39.827000Z
Lec.
KNeighborsClassifier. 0,617
false
false
false
10,348
2026-02-24T09:52:38.338000Z
2026-02-24T09:52:38.338000Z
Lec.
ExtraTreesClassifier. 0,650
false
false
false
10,347
2026-02-24T09:52:36.573000Z
2026-02-24T09:52:36.573000Z
Lec.
GradientBoostingClassifier. 0,658
false
false
false
10,346
2026-02-24T09:52:34.851000Z
2026-02-24T09:52:34.851000Z
Lec.
LogisticRegression. 0,537
false
false
false
10,345
2026-02-24T09:52:33.331000Z
2026-02-24T09:52:33.331000Z
Lec.
LinearSVC. 0,718
false
false
false
10,344
2026-02-24T09:52:31.842000Z
2026-02-24T09:52:31.842000Z
Lec.
RandomForestClassifier. 0,628
false
false
false
10,343
2026-02-24T09:52:29.999000Z
2026-02-24T09:52:30Z
Lec.
F1–weighted среднее
false
false
false
10,342
2026-02-24T09:52:28.279000Z
2026-02-24T09:52:28.279000Z
Lec.
Название модели
false
true
false
10,341
2026-02-24T09:52:26.257000Z
2026-02-24T09:52:26.257000Z
Lec.
Тестирование классификаторов третьего уровня
false
true
false
10,340
2026-02-24T09:52:24.715000Z
2026-02-24T09:52:24.715000Z
Lec.
Результаты можно увидеть в таблице ниже
false
true
false
10,339
2026-02-24T09:52:22.730000Z
2026-02-24T09:52:22.730000Z
Lec.
Гиперпараметры TF-IDF для каждой модели одинаковые
true
true
false
10,338
2026-02-24T09:52:21.242000Z
2026-02-24T09:52:21.242000Z
Lec.
Для оценки моделей было взято 12 срезов с различными тематиками и длинами, для них получены метрики, а от них было взято среднее
false
true
false
10,337
2026-02-24T09:52:19.643000Z
2026-02-24T09:52:19.643000Z
Lec.
Было проведено тестирование различных моделей классификаторов в сочетании с Linear SVC
false
true
false
10,336
2026-02-24T09:52:17.898000Z
2026-02-24T09:52:17.898000Z
Lec.
На третьем уровне имеется примерно 424 уникальных срезов датасетов
false
true
false
10,335
2026-02-24T09:52:16.151000Z
2026-02-24T09:52:16.151000Z
Lec.
Count Vectorizer. 0,483. 0,245. 0,497
false
false
false
10,334
2026-02-24T09:52:14.371000Z
2026-02-24T09:52:14.371000Z
Lec.
FastText SkipGram. 0,64. 0,41. 0,638
false
false
false
10,333
2026-02-24T09:52:12.539000Z
2026-02-24T09:52:12.539000Z
Lec.
FastText CBOW. 0,45. 0,209. 0,472
false
false
false
10,332
2026-02-24T09:52:11.036000Z
2026-02-24T09:52:11.036000Z
Lec.
Word2Vec SkipGram. 0,66. 0,448. 0,661
false
false
false
10,331
2026-02-24T09:52:09.205000Z
2026-02-24T09:52:09.205000Z
Lec.
Word2Vec CBOW. 0,518. 0,210. 0,431
false
false
false
10,330
2026-02-24T09:52:07.472000Z
2026-02-24T09:52:07.472000Z
Lec.
Модель. f1–weighted. f1–macro. f1–micro
false
false
false
10,329
2026-02-24T09:52:05.646000Z
2026-02-24T09:52:05.646000Z
Lec.
Сравнение метрик векторизаторов
false
true
false
10,328
2026-02-24T09:52:03.773000Z
2026-02-24T09:52:03.773000Z
Lec.
Результаты представлены в таблице ниже:
false
true
false
10,327
2026-02-24T09:52:01.828000Z
2026-02-24T09:52:01.828000Z
Lec.
С ними также были проведен эксперимент на том же наборе данных с Linear SVC
false
true
false
10,326
2026-02-24T09:52:00.256000Z
2026-02-24T09:52:00.256000Z
Lec.
К ним также относятся Fast Text [46], CountVectorizer [47], Word2Vec
false
true
false
10,325
2026-02-24T09:51:58.460000Z
2026-02-24T09:51:58.460000Z
Lec.
Стоит отметить, что простые эмбеддеры не ограничиваются только TF–IDF
false
true
false
10,324
2026-02-24T09:51:56.934000Z
2026-02-24T09:51:56.934000Z
Lec.
Стоит отметить, что TF–IDF также превосходит их по скорости работы и обучения
false
true
false
10,323
2026-02-24T09:51:55.220000Z
2026-02-24T09:51:55.220000Z
Lec.
Из таблицы выше очевидно, TF–IDF выигрывает все основные модели по всем метрикам классификации
false
true
false
10,322
2026-02-24T09:51:53.676000Z
2026-02-24T09:51:53.676000Z
Lec.
TF–IDF снова оказался победителем с большим отрывом по всем метрикам
false
true
false
10,321
2026-02-24T09:51:51.926000Z
2026-02-24T09:51:51.926000Z
Lec.
TF–IDF. 0,751. 0, 61. 0,767
false
false
false
10,320
2026-02-24T09:51:50.081000Z
2026-02-24T09:51:50.081000Z
Lec.
Модель. f1–weighted. f1–macro. f1–micro. sergeyzh/rubert–mini–frida. 0,521. 0,341. 0,513. cointegrated/rubert–tiny2. 0,434. 0,27. 0,431. all–mpnet–base–v2. 0,325. 0,147. 0,31. all–MiniLM–L12–v2. 0,293. 0,1. 0,276. paraphrase–multilingual–mpnet–base–v2. 0,483. 0,3. 0,469. sentence–transformers/paraphrase–multilingual–MiniLM–L12–v2. 0,459. 0,2919. 0,444
false
false
false
10,319
2026-02-24T09:51:48.195000Z
2026-02-24T09:51:48.195000Z
Lec.
Тестирование нейросетевых эмбеддеров
false
true
false
10,318
2026-02-24T09:51:46.470000Z
2026-02-24T09:51:46.470000Z
Lec.
Для примера были взяты многозычные и русскоязычные модели Они представлены в таблице ниже:
false
true
false
10,317
2026-02-24T09:51:44.798000Z
2026-02-24T09:51:44.798000Z
Lec.
Помимо цельных нейронных моделей были протестированы сочетания нейросетевых эмбеддеров с LinearSVC
false
true
false
10,316
2026-02-24T09:51:43.214000Z
2026-02-24T09:51:43.214000Z
Lec.
Более того, с учетом того, что в датасете около 380 уникальных классов, при использовании даже дистиллированных моделей BERT, как в уровне 2, размер итогового приложения получится около 40 Гигабайт, что не допустимо требованиями ВИНИТИ
false
true
false
10,315
2026-02-24T09:51:41.514000Z
2026-02-24T09:51:41.514000Z
Lec.
Как мы видим, TF–IDF и Linear SVC превосходит нейросетевые эмбеддеры [45] при гораздо меньшем размере
false
true
false
10,314
2026-02-24T09:51:39.766000Z
2026-02-24T09:51:39.766000Z
Lec.
Модели на основе BERT обучались на 4 эпохах
false
true
false
10,313
2026-02-24T09:51:38.046000Z
2026-02-24T09:51:38.046000Z
Lec.
TF–IDF LinearSVC. 0,748. 0,585. 0,755. sergeyzh/rubert–mini–frida. 0,688. 0,538. 0,695
false
false
false
10,312
2026-02-24T09:51:36.420000Z
2026-02-24T09:51:36.420000Z
Lec.
Модель. f1–weighted. f1–macro. f1–micro. sergeyzh/rubert–tiny–turbo. 0,690. 0,410. 0,714
false
false
false
10,311
2026-02-24T09:51:34.475000Z
2026-02-24T09:51:34.475000Z
Lec.
Сравнение метрик модели rubert–tiny–turbo с TF–IDF и LinearSVC для среза третьего уровня
false
true
false
10,310
2026-02-24T09:51:32.800000Z
2026-02-24T09:51:32.800000Z
Lec.
Результаты представлены в таблице ниже
false
true
false
10,309
2026-02-24T09:51:30.646000Z
2026-02-24T09:51:30.646000Z
Lec.
Для того чтобы продемонстрировать это, было сделано сравнение модели rubert–tiny–turbo с небольшой моделью векторизации TF–IDF [43] и линейным классификатором Linear SVC [44] на срезе датасета длиной 612 строк с кодом второго уровня 45.29 – электрические машины
false
true
false
10,308
2026-02-24T09:51:28.634000Z
2026-02-24T09:51:28.634000Z
Lec.
Медианное число строк на третьем уровне классификации около 280, поэтому модели с трансформенной архитектурой избыточны
false
true
false