id int64 18 18.8k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 14:51:09 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 14:51:09 | doc_name stringclasses 1
value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2
classes | is_sentence bool 2
classes | is_corrected bool 2
classes |
|---|---|---|---|---|---|---|---|---|
10,157 | 2026-02-24T09:47:07.349000Z | 2026-02-24T09:47:07.349000Z | Lec. | Weighted Cross–Entropy (WCE) [30] – Модификация CE с весами классов, позволяющая компенсировать дисбаланс | false | true | false | |
10,156 | 2026-02-24T09:47:05.403000Z | 2026-02-24T09:47:05.403000Z | Lec. | Хорошо работает на сбалансированных данных, но при дисбалансе классов склонна игнорировать редкие классы | false | true | false | |
10,155 | 2026-02-24T09:47:03.761000Z | 2026-02-24T09:47:03.761000Z | Lec. | Cross–Entropy (CE) [29] – Стандартная функция для классификации, измеряющая расхождение между предсказанными вероятностями и истинными метками | false | true | false | |
10,154 | 2026-02-24T09:47:02.001000Z | 2026-02-24T09:47:02.001000Z | Lec. | Рассмотрим четыре ключевые функции: Cross–Entropy, Weighted Cross–Entropy, Focal Loss и Dice Loss | false | true | false | |
10,153 | 2026-02-24T09:47:00.284000Z | 2026-02-24T09:47:00.284000Z | Lec. | В задачах классификации и сегментации выбор функции потерь (loss function) существенно влияет на качество модели | false | true | false | |
10,152 | 2026-02-24T09:46:58.553000Z | 2026-02-24T09:46:58.553000Z | Lec. | По сравнению с другими классификаторами, AdamW сочетает преимущества адаптивного обучения (как Adam) с корректной обработкой weight decay, а также обеспечивает быструю сходимость, устойчивость к шуму в градиентах и хорошо работает даже с небольшими батчами. полезны в специфичных сценариях (экономия памяти или тонкая ру... | false | true | false | |
10,151 | 2026-02-24T09:46:56.952000Z | 2026-02-24T09:46:56.952000Z | Lec. | В отличие от адаптивных методов, SGD менее склонен к застреванию в локальных минимумах благодаря инерции момента, но требует тщательного подбора learning rate и может обучаться медленнее, чем AdamW | false | true | false | |
10,150 | 2026-02-24T09:46:55.391000Z | 2026-02-24T09:46:55.391000Z | Lec. | SGD [28] (Stochastic Gradient Descent) с моментом – классический оптимизатор, который иногда используется для BERT, особенно когда требуется более точный контроль над обучением | false | true | false | |
10,149 | 2026-02-24T09:46:53.623000Z | 2026-02-24T09:46:53.623000Z | Lec. | Данный оптимизатор заточен под оптимизацию очень мощных языковых моделей, и обладает плохой сходимостью, поэтому уступает AdamW в нашей задаче | false | true | false | |
10,148 | 2026-02-24T09:46:52.082000Z | 2026-02-24T09:46:52.082000Z | Lec. | Это значительно сокращает число обучаемых параметров ускоряя обучение и снижая требования к памяти, почти без потери качества | false | true | false | |
10,147 | 2026-02-24T09:46:50.333000Z | 2026-02-24T09:46:50.333000Z | Lec. | Вместо полного обновления всех параметров LoRA замораживает исходные веса и обучает низкоранговые матрицы, которые добавляются к весам слоев внимания | false | true | false | |
10,146 | 2026-02-24T09:46:48.761000Z | 2026-02-24T09:46:48.761000Z | Lec. | LoRA [27] – эффективный метод адаптации больших языковых моделей, включая BERT | false | true | false | |
10,145 | 2026-02-24T09:46:47.026000Z | 2026-02-24T09:46:47.026000Z | Lec. | Это делает AdamW стандартным выбором для тонкой настройки BERT, так как он обеспечивает стабильное обучение | false | true | false | |
10,144 | 2026-02-24T09:46:45.278000Z | 2026-02-24T09:46:45.278000Z | Lec. | В отличие от Adam, где L2–регуляризация применяется к градиентам, AdamW напрямую вычитает weight_decay [26] из весов, что улучшает сходимость и обобщение модели | false | true | false | |
10,143 | 2026-02-24T09:46:43.512000Z | 2026-02-24T09:46:43.512000Z | Lec. | AdamW [25] – модификация классического Adam, исправляющая проблему несогласованности L2–регуляризации | false | true | false | |
10,142 | 2026-02-24T09:46:41.636000Z | 2026-02-24T09:46:41.636000Z | Lec. | DeepPavlov/rubert–base–cased–sentence. 110 мс. 8 мс. 680 Мб. sentence–transformers/LaBSE. 120 мс. 8 мс. 1,8 Гб. sberbank–ai/sbert_large_nlu_ru. 420 мс. 16 мс. 1,6 Гб | false | false | false | |
10,141 | 2026-02-24T09:46:39.845000Z | 2026-02-24T09:46:39.845000Z | Lec. | Rubert–tiny–2. 6 мс. 3 мс. 45 Мб. bert–base–multilingual–cased. 125 мс. 8 мс. 680 Мб | false | false | false | |
10,140 | 2026-02-24T09:46:38.022000Z | 2026-02-24T09:46:38.022000Z | Lec. | Вес на диске | false | true | false | |
10,139 | 2026-02-24T09:46:36.438000Z | 2026-02-24T09:46:36.438000Z | Lec. | Скорость (GPU) | false | true | false | |
10,138 | 2026-02-24T09:46:34.973000Z | 2026-02-24T09:46:34.973000Z | Lec. | Скорость (CPU) | false | true | false | |
10,137 | 2026-02-24T09:46:33.326000Z | 2026-02-24T09:46:33.326000Z | Lec. | Сравнение параметров моделей | false | true | false | |
10,136 | 2026-02-24T09:46:31.384000Z | 2026-02-24T09:46:31.384000Z | Lec. | В Таблице 2 ниже представлены сравнительные характеристики BERT и TinyBERT | false | true | false | |
10,135 | 2026-02-24T09:46:29.719000Z | 2026-02-24T09:46:29.719000Z | Lec. | Модель обучалась на ответах BERT–base–cased | false | true | false | |
10,134 | 2026-02-24T09:46:28.111000Z | 2026-02-24T09:46:28.111000Z | Lec. | В сравнении с BERT, TinyBERT демонстрирует заметное сокращение размера модели, что способствует ускорению обучения при небольшом снижении точности | false | true | false | |
10,133 | 2026-02-24T09:46:26.370000Z | 2026-02-24T09:46:26.370000Z | Lec. | Главная цель — уменьшить количество параметров и глубину слоев оригинального BERT без значительных потерь качества в задачах обработки естественного языка | false | true | false | |
10,132 | 2026-02-24T09:46:24.711000Z | 2026-02-24T09:46:24.711000Z | Lec. | Она базируется на методе дистилляции и разрабатывалась для задач, где критически важны низкая латентность и ограниченные вычислительные ресурсы, такие как мобильные устройства, встроенные системы и сервисы реального времени, работающие в условиях строгих ограничений по памяти и скорости | false | true | false | |
10,131 | 2026-02-24T09:46:22.923000Z | 2026-02-24T09:46:22.923000Z | Lec. | Наиболее известной такой моделью является TinyBERT [24] | false | true | false | |
10,130 | 2026-02-24T09:46:21.379000Z | 2026-02-24T09:46:21.379000Z | Lec. | Она подразумевает обучение более простой модели на наборе данных, содержащем ответы более сложной модели | false | true | false | |
10,129 | 2026-02-24T09:46:19.618000Z | 2026-02-24T09:46:19.618000Z | Lec. | Существует основной метод уменьшения размера и увеличения скорости моделей: дистилляция [22] | false | true | false | |
10,128 | 2026-02-24T09:46:17.682000Z | 2026-02-24T09:46:17.682000Z | Lec. | Теперь обратим внимание на упрощенные модели трансформеров, которые могут использоваться в качестве второго уровня классификаторов | false | true | false | |
10,127 | 2026-02-24T09:46:16.074000Z | 2026-02-24T09:46:16.074000Z | Lec. | XLNET–Caps. 0,68. 0,682 | false | true | false | |
10,126 | 2026-02-24T09:46:14.238000Z | 2026-02-24T09:46:14.238000Z | Lec. | XLNet. 0,592. 0,595 | false | false | false | |
10,125 | 2026-02-24T09:46:12.519000Z | 2026-02-24T09:46:12.519000Z | Lec. | RoBERTa–Caps. 0,644. 0,675 | false | false | false | |
10,124 | 2026-02-24T09:46:10.777000Z | 2026-02-24T09:46:10.777000Z | Lec. | ALBERT–Caps. 0,653. 0,685 | false | true | false | |
10,123 | 2026-02-24T09:46:08.924000Z | 2026-02-24T09:46:08.924000Z | Lec. | BERT. 0,59. 0,674 | false | true | false | |
10,122 | 2026-02-24T09:46:07.038000Z | 2026-02-24T09:46:07.038000Z | Lec. | LSTM. 0,552. 0,637 | false | false | false | |
10,121 | 2026-02-24T09:46:05.333000Z | 2026-02-24T09:46:05.333000Z | Lec. | SVM. 0,534. 0,608 | false | false | false | |
10,120 | 2026-02-24T09:46:03.634000Z | 2026-02-24T09:46:03.634000Z | Lec. | Сравнение метрик качества предсказаний | false | true | false | |
10,119 | 2026-02-24T09:46:01.344000Z | 2026-02-24T09:46:01.344000Z | Lec. | В этой же работе в таблице 1 продемонстрировано полное превосходство XLNet над остальными моделями | false | true | false | |
10,118 | 2026-02-24T09:45:59.639000Z | 2026-02-24T09:45:59.639000Z | Lec. | Недостатком этой модели является то, что она требует гораздо больше объемов памяти и на порядки больше вычислительных ресурсов, чем все остальные модели | false | true | false | |
10,117 | 2026-02-24T09:45:58.085000Z | 2026-02-24T09:45:58.085000Z | Lec. | В работе [21] показано, что XLNet получает в задачах классификации такие же высокие результаты, как ROBERTa | false | true | false | |
10,116 | 2026-02-24T09:45:56.341000Z | 2026-02-24T09:45:56.341000Z | Lec. | Рисунок 6 – Схема обучения | false | true | false | |
10,115 | 2026-02-24T09:45:54.578000Z | 2026-02-24T09:45:54.578000Z | Lec. | Общая схема обучения XLNet представлена ниже | false | true | false | |
10,114 | 2026-02-24T09:45:52.939000Z | 2026-02-24T09:45:52.939000Z | Lec. | Благодаря функционалу Transformer–XL, XLNet эффективно справляется с длинными текстами, суммированием и переводом, где важны связи между удаленными токенами | false | true | false | |
10,113 | 2026-02-24T09:45:51.194000Z | 2026-02-24T09:45:51.194000Z | Lec. | Ключевым нововведением XLNet является Permutation Language Modeling (PLM) [20], благодаря которому модель лучше улавливает двунаправленный контекст, избегая прямого маскирования, как в BERT | false | true | false | |
10,112 | 2026-02-24T09:45:49.338000Z | 2026-02-24T09:45:49.338000Z | Lec. | Эта модель объединяет идеи рекуррентных нейронных сетей (RNN) [19] | false | true | false | |
10,111 | 2026-02-24T09:45:47.415000Z | 2026-02-24T09:45:47.415000Z | Lec. | Продвинутым трансформером следующего поколения является XLNet [18], разработанный компанией Google | false | true | false | |
10,110 | 2026-02-24T09:45:45.690000Z | 2026-02-24T09:45:45.690000Z | Lec. | Несмотря на преимущества, у этой архитектуры есть недостаток — увеличенное время работы из-за дополнительного слоя | false | true | false | |
10,109 | 2026-02-24T09:45:44.077000Z | 2026-02-24T09:45:44.077000Z | Lec. | В работе показано, что SBERT по точности классификации новостных заголовков превосходит BERT | false | true | false | |
10,108 | 2026-02-24T09:45:42.336000Z | 2026-02-24T09:45:42.336000Z | Lec. | Сходство между предложениями определяется по косинусному расстоянию | false | true | false | |
10,107 | 2026-02-24T09:45:40.507000Z | 2026-02-24T09:45:40.507000Z | Lec. | В SBERT добавлен специальный слой, который преобразует последовательность токенов в единый вектор (обычно с использованием mean–pooling по последнему скрытому слою) | false | true | false | |
10,106 | 2026-02-24T09:45:38.940000Z | 2026-02-24T09:45:38.940000Z | Lec. | Эта архитектура предназначена для работы с предложениями, а не с отдельными словами | false | true | false | |
10,105 | 2026-02-24T09:45:37.294000Z | 2026-02-24T09:45:37.294000Z | Lec. | Другим методом оптимизации трансформеров является Sentence BERT (SBERT) [17] | false | true | false | |
10,104 | 2026-02-24T09:45:35.572000Z | 2026-02-24T09:45:35.572000Z | Lec. | В работе наглядно показывается, что RoBERTa превосходит традиционные трансформеры с фиксированным маскированием | false | true | false | |
10,103 | 2026-02-24T09:45:33.857000Z | 2026-02-24T09:45:33.857000Z | Lec. | Эти изменения дают преимущества по сравнению с обычным BERT | false | true | false | |
10,102 | 2026-02-24T09:45:32.247000Z | 2026-02-24T09:45:32.247000Z | Lec. | RoBERTa более тщательно подбирает гиперпараметры [16], включая более высокие learning rates на начальных этапах, что положительно сказывается на качестве | false | true | false | |
10,101 | 2026-02-24T09:45:30.493000Z | 2026-02-24T09:45:30.493000Z | Lec. | На каждом шаге обучения (batch) маски меняются, что дает модели возможность «угадывать» большее разнообразие скрытых токенов в разных контекстах. 3 | false | true | false | |
10,100 | 2026-02-24T09:45:28.917000Z | 2026-02-24T09:45:28.917000Z | Lec. | Модель обучалась на более крупных и разнообразных датасетах (например, Common Crawl, Reddit и др.), что позволило улучшить ее обобщающие способности. 2 | false | true | false | |
10,099 | 2026-02-24T09:45:27.140000Z | 2026-02-24T09:45:27.140000Z | Lec. | Основные отличия заключаются в следующем:. 1 | false | true | false | |
10,098 | 2026-02-24T09:45:25.293000Z | 2026-02-24T09:45:25.293000Z | Lec. | Усовершенствованной версией BERT является RoBERTa (Robustly Optimized BERT Approach) [15] | false | true | false | |
10,097 | 2026-02-24T09:45:23.365000Z | 2026-02-24T09:45:23.365000Z | Lec. | BERT показывает более высокую точность предсказаний по сравнению с устаревшими методами обработки текста | false | true | false | |
10,096 | 2026-02-24T09:45:21.615000Z | 2026-02-24T09:45:21.615000Z | Lec. | В работе продемонстрировано применение BERT для мультиклассового распознавания текстов | false | true | false | |
10,095 | 2026-02-24T09:45:19.880000Z | 2026-02-24T09:45:19.880000Z | Lec. | Эта модель была представлена в 2019 году и считается эталоном для сравнения всех остальных архитектур | false | true | false | |
10,094 | 2026-02-24T09:45:18.185000Z | 2026-02-24T09:45:18.185000Z | Lec. | Первой и наиболее известной моделью на основе трансформеров является BERT, которая одинаково успешно справляется с задачами классификации | false | true | false | |
10,093 | 2026-02-24T09:45:16.450000Z | 2026-02-24T09:45:16.450000Z | Lec. | Рисунок 5 – Общая архитектура трансформеров | false | true | false | |
10,092 | 2026-02-24T09:45:14.874000Z | 2026-02-24T09:45:14.874000Z | Lec. | Для улучшения стабильности и ускорения обучения внедряются нормализация слоев и регуляризация L2 [14] | false | true | false | |
10,091 | 2026-02-24T09:45:13.016000Z | 2026-02-24T09:45:13.016000Z | Lec. | За слоем самовнимания располагается блок сети с прямой передачей, который обрабатывает выходное представление каждой лексемы независимо | false | true | false | |
10,090 | 2026-02-24T09:45:11.241000Z | 2026-02-24T09:45:11.241000Z | Lec. | Для каждой головы внимания применяется своя матрица для векторов запроса (Q), ключа (K) и значения (V), что помогает модели выявлять разные языковые зависимости | false | true | false | |
10,089 | 2026-02-24T09:45:09.653000Z | 2026-02-24T09:45:09.653000Z | Lec. | Ключевым элементом кодера является многоголовый механизм самовнимания [13], позволяющий модулю внимания одновременно рассматривать различные аспекты взаимодействия лексем | false | true | false | |
10,088 | 2026-02-24T09:45:07.886000Z | 2026-02-24T09:45:07.886000Z | Lec. | Декодер генерирует выходную последовательность поэтапно, опираясь на закодированное представление кодера | false | true | false | |
10,087 | 2026-02-24T09:45:06.289000Z | 2026-02-24T09:45:06.289000Z | Lec. | Кодер принимает последовательность лексем и формирует для каждой из них скрытое представление, учитывающее контекст остальных лексем | false | true | false | |
10,086 | 2026-02-24T09:45:04.666000Z | 2026-02-24T09:45:04.666000Z | Lec. | В стандартной модели трансформер делится на две части: кодер и декодер | false | true | false | |
10,085 | 2026-02-24T09:45:02.854000Z | 2026-02-24T09:45:02.854000Z | Lec. | Общая структура трансформеров показана на рисунке 2 | false | true | false | |
10,084 | 2026-02-24T09:45:01.319000Z | 2026-02-24T09:45:01.319000Z | Lec. | Ключевое достоинство трансформеров заключается в возможности каждого токена из входной последовательности (например, слова или его части) взаимодействовать с другими токенами, не прибегая к последовательной обработке, как это делается в рекуррентных сетях | false | true | false | |
10,083 | 2026-02-24T09:44:59.524000Z | 2026-02-24T09:44:59.524000Z | Lec. | Трансформеры первого поколения основываются на принципе отказа от рекуррентных и сверточных [12] механизмов, акцентируя внимание на многоголовом внимании | false | true | false | |
10,082 | 2026-02-24T09:44:57.960000Z | 2026-02-24T09:44:57.960000Z | Lec. | К наиболее популярным относятся трансформеры и сочетания текстовых векторизаторов [11] с регрессионными моделями | false | true | false | |
10,081 | 2026-02-24T09:44:56.232000Z | 2026-02-24T09:44:56.232000Z | Lec. | На сегодняшний день имеется множество архитектур для классификации текстовых данных | false | true | false | |
10,080 | 2026-02-24T09:44:54.504000Z | 2026-02-24T09:44:54.504000Z | Lec. | Облачные сервисы не позволяют развертывать модель локально, а также требуют постоянной оплаты | false | true | false | |
10,079 | 2026-02-24T09:44:52.952000Z | 2026-02-24T09:44:52.952000Z | Lec. | Таким образом, не существует полноценного инструмента, который мог бы полноценно классифицировать текста по рубрикатору ГРНТИ без требования подключения к интернету и соблюдения условий конфиденциальности данных | false | true | false | |
10,078 | 2026-02-24T09:44:51.153000Z | 2026-02-24T09:44:51.153000Z | Lec. | Стоит отметить, что у этой платформы есть ограничение на объем данных, которые могут быть обработаны одновременно | false | true | false | |
10,077 | 2026-02-24T09:44:49.330000Z | 2026-02-24T09:44:49.330000Z | Lec. | В сервисе присутствует возможность разрабатывать индивидуальные модели на основе своих данных, что позволяет получать более точные результаты | false | true | false | |
10,076 | 2026-02-24T09:44:47.475000Z | 2026-02-24T09:44:47.475000Z | Lec. | MonkeyLearn [10] – платформа для машинного обучения, которая предназначена для классификации текстов с помощью заранее обученных моделей | false | true | false | |
10,075 | 2026-02-24T09:44:45.720000Z | 2026-02-24T09:44:45.720000Z | Lec. | В нашем случае использование облачных платформ нарушает принцип конфиденциальности, который является требованием к ПО | false | true | false | |
10,074 | 2026-02-24T09:44:44.020000Z | 2026-02-24T09:44:44.020000Z | Lec. | С их помощью возможно создавать модели классификации для выявления тем в данных | false | true | false | |
10,073 | 2026-02-24T09:44:42.083000Z | 2026-02-24T09:44:42.083000Z | Lec. | IBM Watson [9] – многозадачная облачная платформа, имеет широкий ассортимент работы с данными, в том числе классификации текстов | false | true | false | |
10,072 | 2026-02-24T09:44:40.304000Z | 2026-02-24T09:44:40.304000Z | Lec. | В итоге результаты были недостаточно высоки с учетом существовавших на тот момент технологий | false | true | false | |
10,071 | 2026-02-24T09:44:38.570000Z | 2026-02-24T09:44:38.570000Z | Lec. | В отличие от подхода в этой работе, где для каждого кода ГРНТИ на втором и третьем уровне создается своя модель, здесь есть одна модель только для каждого конкретного уровня | false | true | false | |
10,070 | 2026-02-24T09:44:36.938000Z | 2026-02-24T09:44:36.938000Z | Lec. | Для каждого уровня используется одна модель | false | true | false | |
10,069 | 2026-02-24T09:44:35.451000Z | 2026-02-24T09:44:35.451000Z | Lec. | Он был выполнен на языке Python в виде консольного приложения с трехуровневой классификацией, используя стандартную модель Bidirectional Encoder Representations from Transformers (BERT) [8] в связке с рекуррентными моделями | false | true | false | |
10,068 | 2026-02-24T09:44:33.590000Z | 2026-02-24T09:44:33.590000Z | Lec. | Классификатор кодов ГРНТИ Всероссийского Института Научной и Технической Информации, для замены которого создается эта разработка | false | true | false | |
10,067 | 2026-02-24T09:44:31.595000Z | 2026-02-24T09:44:31.595000Z | Lec. | На данный момент существует огромное количество классификаторов текстов, которые подходят под заданные критерии: иерархичность классификации, работа с большими текстами, возможность присвоения нескольких категорий одному тексту | false | true | false | |
10,066 | 2026-02-24T09:44:29.967000Z | 2026-02-24T09:44:29.967000Z | Lec. | Итоговая программа должна работать на персональном компьютере на ОС Windows 11 с 16 ГБ ОЗУ, 4 ядерным процессором, время полного прохода одного текста не должно превышать 6 секунд | false | true | false | |
10,065 | 2026-02-24T09:44:28.188000Z | 2026-02-24T09:44:28.188000Z | Lec. | Для этого планируется применять мягкая классификация на втором и третьем уровне, каждый из них сможет выдавать по 2 класса в зависимости от степени уверенности, который ввел пользователь (от 0 до 1) | false | true | false | |
10,064 | 2026-02-24T09:44:25.770000Z | 2026-02-24T09:44:25.770000Z | Lec. | Разработанный ансамбль должен также поддерживать нежесткую классификацию для второго и третьего уровня, так как научная работа может потенциально относиться к двум и более типам научных работ | false | true | false | |
10,063 | 2026-02-24T09:44:24.149000Z | 2026-02-24T09:44:24.149000Z | Lec. | Рисунок 4 – Общая схема программы | false | true | false | |
10,062 | 2026-02-24T09:44:22.264000Z | 2026-02-24T09:44:22.264000Z | Lec. | Примерная схема классификатора отображена на рисунке ниже | false | true | false | |
10,061 | 2026-02-24T09:44:20.301000Z | 2026-02-24T09:44:20.301000Z | Lec. | Программа для второго и третьего уровня выбирает, какая модель запускается, исходя из предсказаний модели выше | false | true | false | |
10,060 | 2026-02-24T09:44:18.772000Z | 2026-02-24T09:44:18.772000Z | Lec. | Модели второго и третьего уровней обучаются на конкретных поднаборах данных | false | true | false | |
10,059 | 2026-02-24T09:44:17.014000Z | 2026-02-24T09:44:17.014000Z | Lec. | На третьем уровне планируется применять линейный векторизатор с простой моделью классификатора | false | true | false | |
10,058 | 2026-02-24T09:44:15.489000Z | 2026-02-24T09:44:15.489000Z | Lec. | В этой работе на первом уровне располагается мощная модель классификации, на втором – меньшие модели с трансформенной [7] архитектурой | false | true | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.