id int64 18 21.1k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 16:54:39 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 16:54:39 | doc_name stringclasses 1
value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2
classes | is_sentence bool 2
classes | is_corrected bool 2
classes |
|---|---|---|---|---|---|---|---|---|
10,207 | 2026-02-24T09:48:33.339000Z | 2026-02-24T09:48:33.339000Z | Lec. | Токен является численным представлением слова или части слова для BERT | false | true | false | |
10,206 | 2026-02-24T09:48:31.631000Z | 2026-02-24T09:48:31.631000Z | Lec. | Помимо распределения классов, нужно знать еще распределение длин токенов в датасете, чтобы правильно выбрать модель | false | true | false | |
10,205 | 2026-02-24T09:48:30.117000Z | 2026-02-24T09:48:30.117000Z | Lec. | Рисунок 10 – Частота встречаемости в тренировочном наборе, уровень 1 | false | true | false | |
10,204 | 2026-02-24T09:48:28.216000Z | 2026-02-24T09:48:28.216000Z | Lec. | Рисунок 9 – Частота встречаемости в тренировочном наборе, уровень 2/3 | false | false | false | |
10,203 | 2026-02-24T09:48:26.573000Z | 2026-02-24T09:48:26.573000Z | Lec. | Ознакомится с распределением меток по первому уровня для двух получившихся датасетах можно на рисунках 8 и 9 | false | true | false | |
10,202 | 2026-02-24T09:48:25.095000Z | 2026-02-24T09:48:25.095000Z | Lec. | Для второго и третьего уровня, где дисбаланс велик, были удалены метки второго уровня, чья встречаемость в тексте была ниже 30, так как на третьем уровне классификатор не сможет классифицировать рубрики третьего уровня для таких срезов с таким количеством текстов | false | true | false | |
10,201 | 2026-02-24T09:48:23.470000Z | 2026-02-24T09:48:23.470000Z | Lec. | Отличие набора для первого уровня состоит в том, что для самого большого класса 34 (биология) был сделан небольшой undersampling [37], с целью уменьшения дисбаланса | false | true | false | |
10,200 | 2026-02-24T09:48:21.705000Z | 2026-02-24T09:48:21.705000Z | Lec. | В виду того, что новый датасет получился также с большим классовым дисбалансом, решено разделить его на 2 датасета для первого уровня, и для второго и третьего уровней | false | true | false | |
10,199 | 2026-02-24T09:48:20.075000Z | 2026-02-24T09:48:20.075000Z | Lec. | Рисунок 8 – Частота встречаемости в тренировочном наборе | false | false | false | |
10,198 | 2026-02-24T09:48:17.922000Z | 2026-02-24T09:48:17.922000Z | Lec. | Рисунок 7 – Частота встречаемости в объединенном наборе | false | true | false | |
10,197 | 2026-02-24T09:48:15.996000Z | 2026-02-24T09:48:15.996000Z | Lec. | В рисунке ниже можно ознакомиться с итоговым распределением объединенного тренировочного датасета после аугментации текстов | false | true | false | |
10,196 | 2026-02-24T09:48:14.341000Z | 2026-02-24T09:48:14.341000Z | Lec. | Для аугментации шести наименьших классов первого уровня потребовалось двое суток, ввиду чего не удалось аугментировать все классы первого уровня | false | true | false | |
10,195 | 2026-02-24T09:48:12.644000Z | 2026-02-24T09:48:12.644000Z | Lec. | Среднее время запуска для одного текста (аннотация и название работы) занимает около 4 секунд с использованием видеокарты NVIDIA RTX 4090 | false | true | false | |
10,194 | 2026-02-24T09:48:10.871000Z | 2026-02-24T09:48:10.871000Z | Lec. | Несмотря на все преимущества, модель очень затратна по ресурсам | false | true | false | |
10,193 | 2026-02-24T09:48:09.306000Z | 2026-02-24T09:48:09.306000Z | Lec. | Модель демонстрирует устойчивое качество аугментации, может обрабатывать аббревиатуры, числа, формулы, работает даже на больших текстах и сохраняет размер пересказанного предложения | false | true | false | |
10,192 | 2026-02-24T09:48:07.552000Z | 2026-02-24T09:48:07.552000Z | Lec. | Перефразированное предложение: На основании существующей нормативной базы можно отметить, что один из способов взаимодействия государственного и делового партнерства является институт государственного и делового партнерства, способствующий привлечению дополнительных ресурсов к экономике, распределению рисков между государственным и деловым секторами, направлению усилий предпринимателей к решению экономических и социальных задач | false | true | false | |
10,191 | 2026-02-24T09:48:05.548000Z | 2026-02-24T09:48:05.548000Z | Lec. | Исходное предложение: Отмечается, что одной из форм взаимодействия государства и бизнеса выступает институт государственно–частного партнерства (ГЧП), который позволяет привлечь в экономику дополнительные ресурсы, перераспределить риски между государством и предпринимательским сектором, направить усилия предпринимателей на. решение значимых для общества социально–экономических целей и задач | false | true | false | |
10,190 | 2026-02-24T09:48:03.682000Z | 2026-02-24T09:48:03.682000Z | Lec. | Ниже представлен пример работы модели на реальном предложении из тренировочного датасета | false | true | false | |
10,189 | 2026-02-24T09:48:01.952000Z | 2026-02-24T09:48:01.952000Z | Lec. | Аугментация запускалась сразу на объединенный текст названия и аннотации | false | true | false | |
10,188 | 2026-02-24T09:48:00.397000Z | 2026-02-24T09:48:00.397000Z | Lec. | В ходе перебора гиперпараметров были выявлены следующие оптимальные значения:. num_beams – 9;. temperature – 0,75;. grams – 3;. max_length – 1,5 от исходного текста (тексты переменной длины) | false | true | false | |
10,187 | 2026-02-24T09:47:58.747000Z | 2026-02-24T09:47:58.748000Z | Lec. | Модель имеет следующие гиперпараметры:. num_beams – количество гипотез, которые модель одновременно рассматривает при генерации текста, увеличивая качество за счет перебора вариантов. temperature – регулирует креативность модели: низкие значения делают вывод более детерминированным и консервативным, фокусируясь на самых вероятных вариантах, а высокие увеличивают случайность, добавляя разнообразия, но могут снижать точность. grams – контролирует максимальную длину последовательностей слов, которые модель учитывает для избегания повторений в сгенерированном тексте, предотвращая дублирование. max_ length – задает максимальную длину генерируемого текста в токенах, ограничивая вывод модели для соответствия требованиям к краткости или развернутости | false | true | false | |
10,186 | 2026-02-24T09:47:56.660000Z | 2026-02-24T09:47:56.660000Z | Lec. | Эта модель создавалась на основе генеративной модели t5 от google для аугментации русских текстов | false | true | false | |
10,185 | 2026-02-24T09:47:54.917000Z | 2026-02-24T09:47:54.917000Z | Lec. | Для аугментации использовалась модель cointegrated/rut5–base–paraphraser [36] | false | true | false | |
10,184 | 2026-02-24T09:47:53.122000Z | 2026-02-24T09:47:53.122000Z | Lec. | Далее последние 6 классов были аугментированы | false | true | false | |
10,183 | 2026-02-24T09:47:51.633000Z | 2026-02-24T09:47:51.633000Z | Lec. | Для частичного решения проблемы дисбаланса было принято решение удалить все классы с менее 500 строками, чтобы получилось 36 классов | false | true | false | |
10,182 | 2026-02-24T09:47:50.016000Z | 2026-02-24T09:47:50.016000Z | Lec. | В ходе самого обучения тренировочный датасет также разбивается в соотношении 9 к 1 для обучения и валидации | false | true | false | |
10,181 | 2026-02-24T09:47:48.443000Z | 2026-02-24T09:47:48.443000Z | Lec. | Получившийся тестовый датасет используется для оценки точности всей модели с помощью иерархической f1 | false | true | false | |
10,180 | 2026-02-24T09:47:46.152000Z | 2026-02-24T09:47:46.152000Z | Lec. | Ввиду избыточности тестового датасета было принято решение объединить их в один, а затем разделить в соотношении 9 к 1 | false | true | false | |
10,179 | 2026-02-24T09:47:44.563000Z | 2026-02-24T09:47:44.563000Z | Lec. | В каждом из датасетов находились коды ГРНТИ, которые не входили в выданный рубрикатор | false | true | false | |
10,178 | 2026-02-24T09:47:42.953000Z | 2026-02-24T09:47:42.953000Z | Lec. | Датасеты не сбалансированы ни по одному из трех уровней рубрикатора | false | true | false | |
10,177 | 2026-02-24T09:47:41.341000Z | 2026-02-24T09:47:41.341000Z | Lec. | Каждая строка содержит название, аннотацию, ключевые слова, разбивку по трем кодам | false | true | false | |
10,176 | 2026-02-24T09:47:39.348000Z | 2026-02-24T09:47:39.348000Z | Lec. | Тренировочный датасет содержит 270000 строк, тестовый 150000 строк | false | true | false | |
10,175 | 2026-02-24T09:47:37.618000Z | 2026-02-24T09:47:37.618000Z | Lec. | ВИНИТИ выдал 2 набора данных суммарно на около 420000 необработанных строк | false | true | false | |
10,174 | 2026-02-24T09:47:36.054000Z | 2026-02-24T09:47:36.054000Z | Lec. | Это ограничивает сложность модели, предотвращая переобучение за счет уменьшения абсолютных значений весовых коэффициентов | false | true | false | |
10,173 | 2026-02-24T09:47:34.427000Z | 2026-02-24T09:47:34.427000Z | Lec. | Важным инструментом является Weight Decay, Этот метод воздействует на функцию потерь, ввод штрафы за большие значения | false | true | false | |
10,172 | 2026-02-24T09:47:32.556000Z | 2026-02-24T09:47:32.556000Z | Lec. | Это повышает качества предсказаний модели | false | true | false | |
10,171 | 2026-02-24T09:47:30.966000Z | 2026-02-24T09:47:30.966000Z | Lec. | Сглаживание меток [35] – метод, при котором жесткие one–hot метки заменяются на вероятностные распределения по нескольким классам | false | true | false | |
10,170 | 2026-02-24T09:47:29.413000Z | 2026-02-24T09:47:29.413000Z | Lec. | Такой подход позволяет снизить зависимость модели от конкретных весовых коэффициентов | false | true | false | |
10,169 | 2026-02-24T09:47:27.668000Z | 2026-02-24T09:47:27.668000Z | Lec. | Схожим по действию является DropConnect [34] – модификация Dropout, где отключаются соединения между нейронами модели | false | true | false | |
10,168 | 2026-02-24T09:47:26.024000Z | 2026-02-24T09:47:26.024000Z | Lec. | Метод Dropout [33] противодействует переобучению путем случайного исключения нейронов в процессе обучения, что уменьшает избыточную согласованность между ними и способствует выявлению более устойчивых признаков | false | true | false | |
10,167 | 2026-02-24T09:47:24.452000Z | 2026-02-24T09:47:24.452000Z | Lec. | Еще одним классом методов для увеличения качества предсказаний модели является регуляризация | false | true | false | |
10,166 | 2026-02-24T09:47:22.828000Z | 2026-02-24T09:47:22.828000Z | Lec. | Dice Loss изначально создавалась для классификации изображений, а Focal Loss дает ощутимые результаты только для больших дисбалансов классов | false | true | false | |
10,165 | 2026-02-24T09:47:21.238000Z | 2026-02-24T09:47:21.238000Z | Lec. | Наилучшим выбором является функция Cross–Entropy, которая встроенна в AdamW | false | true | false | |
10,164 | 2026-02-24T09:47:19.304000Z | 2026-02-24T09:47:19.304000Z | Lec. | Часто применяется в сегментации изображений, так как устойчива к дисбалансу классов и учитывает пересечение между предсказанием и истинной маской | false | true | false | |
10,163 | 2026-02-24T09:47:17.665000Z | 2026-02-24T09:47:17.665000Z | Lec. | Dice Loss (DL) [32] – Основана на метрике Dice coefficient (аналогичной F1–score) | false | true | false | |
10,162 | 2026-02-24T09:47:15.732000Z | 2026-02-24T09:47:15.732000Z | Lec. | Особенно полезна для экстремальных случаев дисбаланса | false | true | false | |
10,161 | 2026-02-24T09:47:14.143000Z | 2026-02-24T09:47:14.143000Z | Lec. | Уменьшает вклад хорошо классифицируемых примеров, фокусируясь на сложных случаях | false | true | false | |
10,160 | 2026-02-24T09:47:12.613000Z | 2026-02-24T09:47:12.613000Z | Lec. | Focal Loss (FL) [31] – Разработана для задач с экстремальным дисбалансом (например, детекция объектов) | false | true | false | |
10,159 | 2026-02-24T09:47:10.697000Z | 2026-02-24T09:47:10.697000Z | Lec. | Требует ручного подбора или расчета весов | false | true | false | |
10,158 | 2026-02-24T09:47:09.114000Z | 2026-02-24T09:47:09.114000Z | Lec. | Веса обычно задают обратно пропорционально частоте классов, что помогает модели лучше обучаться на миноритарных классах | false | true | false | |
10,157 | 2026-02-24T09:47:07.349000Z | 2026-02-24T09:47:07.349000Z | Lec. | Weighted Cross–Entropy (WCE) [30] – Модификация CE с весами классов, позволяющая компенсировать дисбаланс | false | true | false | |
10,156 | 2026-02-24T09:47:05.403000Z | 2026-02-24T09:47:05.403000Z | Lec. | Хорошо работает на сбалансированных данных, но при дисбалансе классов склонна игнорировать редкие классы | false | true | false | |
10,155 | 2026-02-24T09:47:03.761000Z | 2026-02-24T09:47:03.761000Z | Lec. | Cross–Entropy (CE) [29] – Стандартная функция для классификации, измеряющая расхождение между предсказанными вероятностями и истинными метками | false | true | false | |
10,154 | 2026-02-24T09:47:02.001000Z | 2026-02-24T09:47:02.001000Z | Lec. | Рассмотрим четыре ключевые функции: Cross–Entropy, Weighted Cross–Entropy, Focal Loss и Dice Loss | false | true | false | |
10,153 | 2026-02-24T09:47:00.284000Z | 2026-02-24T09:47:00.284000Z | Lec. | В задачах классификации и сегментации выбор функции потерь (loss function) существенно влияет на качество модели | false | true | false | |
10,152 | 2026-02-24T09:46:58.553000Z | 2026-02-24T09:46:58.553000Z | Lec. | По сравнению с другими классификаторами, AdamW сочетает преимущества адаптивного обучения (как Adam) с корректной обработкой weight decay, а также обеспечивает быструю сходимость, устойчивость к шуму в градиентах и хорошо работает даже с небольшими батчами. полезны в специфичных сценариях (экономия памяти или тонкая ручная настройка), но для большинства задач классификации AdamW остается оптимальным выбором | false | true | false | |
10,151 | 2026-02-24T09:46:56.952000Z | 2026-02-24T09:46:56.952000Z | Lec. | В отличие от адаптивных методов, SGD менее склонен к застреванию в локальных минимумах благодаря инерции момента, но требует тщательного подбора learning rate и может обучаться медленнее, чем AdamW | false | true | false | |
10,150 | 2026-02-24T09:46:55.391000Z | 2026-02-24T09:46:55.391000Z | Lec. | SGD [28] (Stochastic Gradient Descent) с моментом – классический оптимизатор, который иногда используется для BERT, особенно когда требуется более точный контроль над обучением | false | true | false | |
10,149 | 2026-02-24T09:46:53.623000Z | 2026-02-24T09:46:53.623000Z | Lec. | Данный оптимизатор заточен под оптимизацию очень мощных языковых моделей, и обладает плохой сходимостью, поэтому уступает AdamW в нашей задаче | false | true | false | |
10,148 | 2026-02-24T09:46:52.082000Z | 2026-02-24T09:46:52.082000Z | Lec. | Это значительно сокращает число обучаемых параметров ускоряя обучение и снижая требования к памяти, почти без потери качества | false | true | false | |
10,147 | 2026-02-24T09:46:50.333000Z | 2026-02-24T09:46:50.333000Z | Lec. | Вместо полного обновления всех параметров LoRA замораживает исходные веса и обучает низкоранговые матрицы, которые добавляются к весам слоев внимания | false | true | false | |
10,146 | 2026-02-24T09:46:48.761000Z | 2026-02-24T09:46:48.761000Z | Lec. | LoRA [27] – эффективный метод адаптации больших языковых моделей, включая BERT | false | true | false | |
10,145 | 2026-02-24T09:46:47.026000Z | 2026-02-24T09:46:47.026000Z | Lec. | Это делает AdamW стандартным выбором для тонкой настройки BERT, так как он обеспечивает стабильное обучение | false | true | false | |
10,144 | 2026-02-24T09:46:45.278000Z | 2026-02-24T09:46:45.278000Z | Lec. | В отличие от Adam, где L2–регуляризация применяется к градиентам, AdamW напрямую вычитает weight_decay [26] из весов, что улучшает сходимость и обобщение модели | false | true | false | |
10,143 | 2026-02-24T09:46:43.512000Z | 2026-02-24T09:46:43.512000Z | Lec. | AdamW [25] – модификация классического Adam, исправляющая проблему несогласованности L2–регуляризации | false | true | false | |
10,142 | 2026-02-24T09:46:41.636000Z | 2026-02-24T09:46:41.636000Z | Lec. | DeepPavlov/rubert–base–cased–sentence. 110 мс. 8 мс. 680 Мб. sentence–transformers/LaBSE. 120 мс. 8 мс. 1,8 Гб. sberbank–ai/sbert_large_nlu_ru. 420 мс. 16 мс. 1,6 Гб | false | false | false | |
10,141 | 2026-02-24T09:46:39.845000Z | 2026-02-24T09:46:39.845000Z | Lec. | Rubert–tiny–2. 6 мс. 3 мс. 45 Мб. bert–base–multilingual–cased. 125 мс. 8 мс. 680 Мб | false | false | false | |
10,140 | 2026-02-24T09:46:38.022000Z | 2026-02-24T09:46:38.022000Z | Lec. | Вес на диске | false | true | false | |
10,139 | 2026-02-24T09:46:36.438000Z | 2026-02-24T09:46:36.438000Z | Lec. | Скорость (GPU) | false | true | false | |
10,138 | 2026-02-24T09:46:34.973000Z | 2026-02-24T09:46:34.973000Z | Lec. | Скорость (CPU) | false | true | false | |
10,137 | 2026-02-24T09:46:33.326000Z | 2026-02-24T09:46:33.326000Z | Lec. | Сравнение параметров моделей | false | true | false | |
10,136 | 2026-02-24T09:46:31.384000Z | 2026-02-24T09:46:31.384000Z | Lec. | В Таблице 2 ниже представлены сравнительные характеристики BERT и TinyBERT | false | true | false | |
10,135 | 2026-02-24T09:46:29.719000Z | 2026-02-24T09:46:29.719000Z | Lec. | Модель обучалась на ответах BERT–base–cased | false | true | false | |
10,134 | 2026-02-24T09:46:28.111000Z | 2026-02-24T09:46:28.111000Z | Lec. | В сравнении с BERT, TinyBERT демонстрирует заметное сокращение размера модели, что способствует ускорению обучения при небольшом снижении точности | false | true | false | |
10,133 | 2026-02-24T09:46:26.370000Z | 2026-02-24T09:46:26.370000Z | Lec. | Главная цель — уменьшить количество параметров и глубину слоев оригинального BERT без значительных потерь качества в задачах обработки естественного языка | false | true | false | |
10,132 | 2026-02-24T09:46:24.711000Z | 2026-02-24T09:46:24.711000Z | Lec. | Она базируется на методе дистилляции и разрабатывалась для задач, где критически важны низкая латентность и ограниченные вычислительные ресурсы, такие как мобильные устройства, встроенные системы и сервисы реального времени, работающие в условиях строгих ограничений по памяти и скорости | false | true | false | |
10,131 | 2026-02-24T09:46:22.923000Z | 2026-02-24T09:46:22.923000Z | Lec. | Наиболее известной такой моделью является TinyBERT [24] | false | true | false | |
10,130 | 2026-02-24T09:46:21.379000Z | 2026-02-24T09:46:21.379000Z | Lec. | Она подразумевает обучение более простой модели на наборе данных, содержащем ответы более сложной модели | false | true | false | |
10,129 | 2026-02-24T09:46:19.618000Z | 2026-02-24T09:46:19.618000Z | Lec. | Существует основной метод уменьшения размера и увеличения скорости моделей: дистилляция [22] | false | true | false | |
10,128 | 2026-02-24T09:46:17.682000Z | 2026-02-24T09:46:17.682000Z | Lec. | Теперь обратим внимание на упрощенные модели трансформеров, которые могут использоваться в качестве второго уровня классификаторов | false | true | false | |
10,127 | 2026-02-24T09:46:16.074000Z | 2026-02-24T09:46:16.074000Z | Lec. | XLNET–Caps. 0,68. 0,682 | false | true | false | |
10,126 | 2026-02-24T09:46:14.238000Z | 2026-02-24T09:46:14.238000Z | Lec. | XLNet. 0,592. 0,595 | false | false | false | |
10,125 | 2026-02-24T09:46:12.519000Z | 2026-02-24T09:46:12.519000Z | Lec. | RoBERTa–Caps. 0,644. 0,675 | false | false | false | |
10,124 | 2026-02-24T09:46:10.777000Z | 2026-02-24T09:46:10.777000Z | Lec. | ALBERT–Caps. 0,653. 0,685 | false | true | false | |
10,123 | 2026-02-24T09:46:08.924000Z | 2026-02-24T09:46:08.924000Z | Lec. | BERT. 0,59. 0,674 | false | true | false | |
10,122 | 2026-02-24T09:46:07.038000Z | 2026-02-24T09:46:07.038000Z | Lec. | LSTM. 0,552. 0,637 | false | false | false | |
10,121 | 2026-02-24T09:46:05.333000Z | 2026-02-24T09:46:05.333000Z | Lec. | SVM. 0,534. 0,608 | false | false | false | |
10,120 | 2026-02-24T09:46:03.634000Z | 2026-02-24T09:46:03.634000Z | Lec. | Сравнение метрик качества предсказаний | false | true | false | |
10,119 | 2026-02-24T09:46:01.344000Z | 2026-02-24T09:46:01.344000Z | Lec. | В этой же работе в таблице 1 продемонстрировано полное превосходство XLNet над остальными моделями | false | true | false | |
10,118 | 2026-02-24T09:45:59.639000Z | 2026-02-24T09:45:59.639000Z | Lec. | Недостатком этой модели является то, что она требует гораздо больше объемов памяти и на порядки больше вычислительных ресурсов, чем все остальные модели | false | true | false | |
10,117 | 2026-02-24T09:45:58.085000Z | 2026-02-24T09:45:58.085000Z | Lec. | В работе [21] показано, что XLNet получает в задачах классификации такие же высокие результаты, как ROBERTa | false | true | false | |
10,116 | 2026-02-24T09:45:56.341000Z | 2026-02-24T09:45:56.341000Z | Lec. | Рисунок 6 – Схема обучения | false | true | false | |
10,115 | 2026-02-24T09:45:54.578000Z | 2026-02-24T09:45:54.578000Z | Lec. | Общая схема обучения XLNet представлена ниже | false | true | false | |
10,114 | 2026-02-24T09:45:52.939000Z | 2026-02-24T09:45:52.939000Z | Lec. | Благодаря функционалу Transformer–XL, XLNet эффективно справляется с длинными текстами, суммированием и переводом, где важны связи между удаленными токенами | false | true | false | |
10,113 | 2026-02-24T09:45:51.194000Z | 2026-02-24T09:45:51.194000Z | Lec. | Ключевым нововведением XLNet является Permutation Language Modeling (PLM) [20], благодаря которому модель лучше улавливает двунаправленный контекст, избегая прямого маскирования, как в BERT | false | true | false | |
10,112 | 2026-02-24T09:45:49.338000Z | 2026-02-24T09:45:49.338000Z | Lec. | Эта модель объединяет идеи рекуррентных нейронных сетей (RNN) [19] | false | true | false | |
10,111 | 2026-02-24T09:45:47.415000Z | 2026-02-24T09:45:47.415000Z | Lec. | Продвинутым трансформером следующего поколения является XLNet [18], разработанный компанией Google | false | true | false | |
10,110 | 2026-02-24T09:45:45.690000Z | 2026-02-24T09:45:45.690000Z | Lec. | Несмотря на преимущества, у этой архитектуры есть недостаток — увеличенное время работы из-за дополнительного слоя | false | true | false | |
10,109 | 2026-02-24T09:45:44.077000Z | 2026-02-24T09:45:44.077000Z | Lec. | В работе показано, что SBERT по точности классификации новостных заголовков превосходит BERT | false | true | false | |
10,108 | 2026-02-24T09:45:42.336000Z | 2026-02-24T09:45:42.336000Z | Lec. | Сходство между предложениями определяется по косинусному расстоянию | false | true | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.