id int64 18 18.8k | created_at timestamp[us, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 14:51:09 | updated_at timestamp[us, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 14:51:09 | doc_name stringclasses 1 value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2 classes | is_sentence bool 2 classes | is_corrected bool 2 classes |
|---|---|---|---|---|---|---|---|---|
18,757 | 2026-02-24T14:51:09.943000 | 2026-02-24T14:51:09.943000 | Lec. | Отсутствие выраженных систематических отклонений и равномерное распределение точек вдоль диагонали свидетельствуют о сбалансированной обученной модели и ее способности учитывать основные структурные факторы при предсказании | false | true | false | |
18,756 | 2026-02-24T14:51:07.285000 | 2026-02-24T14:51:07.285000 | Lec. | Небольшое смещение точек вниз указывает на тенденцию к недооценке площади в более крупных графах, тогда как в районе средней величины разброс минимален | false | true | false | |
18,755 | 2026-02-24T14:51:04.409000 | 2026-02-24T14:51:04.409000 | Lec. | Диаграмма рассеяния демонстрирует плотность точек вокруг идеальной линии y = x, отражающей абсолютное совпадение прогноза и реального значения площади схемы | false | true | false | |
18,754 | 2026-02-24T14:51:01.741000 | 2026-02-24T14:51:01.741000 | Lec. | Оценка разницы между верной и предсказанной площадью | false | true | false | |
18,753 | 2026-02-24T14:50:59.433000 | 2026-02-24T14:50:59.433000 | Lec. | Оценка и визуализация результатов обучения AreaGNN | false | false | false | |
18,752 | 2026-02-24T14:50:56.580000 | 2026-02-24T14:50:56.580000 | Lec. | Она показала способность предсказывать задержку выше чем средняя величина по выборке | false | true | false | |
18,751 | 2026-02-24T14:50:53.754000 | 2026-02-24T14:50:53.754000 | Lec. | Модель хорошо определяет задержки | false | true | false | |
18,750 | 2026-02-24T14:50:50.972000 | 2026-02-24T14:50:50.972000 | Lec. | Для оптимизации использовался AdamW с небольшим весовым распадом, в качестве функции потерь — HuberLoss, а для управления скоростью обучения и ранней остановки применялся ReduceLROnPlateau и механизм early stopping, что в совокупности позволило существенно снизить относительную ошибку и повысить устойчивость предсказаний на валидационном наборе | false | true | false | |
18,749 | 2026-02-24T14:50:47.661000 | 2026-02-24T14:50:47.661000 | Lec. | Архитектура модели состоит из трех слоев SAGEConv с BatchNorm и Dropout, за которыми следует конкатенация глобального mean- и max-пулинга с вектором глобальных фичей и два полносвязных слоя с ReLU и Dropout, завершающихся единичным нейроном регрессии | false | true | false | |
18,748 | 2026-02-24T14:50:44.604000 | 2026-02-24T14:50:44.604000 | Lec. | Целевая переменная area подвергалась логарифмированию (log1p) и стандартизации по среднему и стандартному отклонению для сглаживания мультипликативного разброса | false | true | false | |
18,747 | 2026-02-24T14:50:41.966000 | 2026-02-24T14:50:41.966000 | Lec. | Для каждой вершины формировался вектор признаков, включающий one-hot код типа узла и нормализованную степень связи, а для всего графа — отдельный вектор глобальных фичей: inputs, outputs, lev, nd, edge, напрямую влияющих на площадь схемы и потому используемых в обучении | false | true | false | |
18,746 | 2026-02-24T14:50:38.746000 | 2026-02-24T14:50:38.746000 | Lec. | На этапе подготовки данных из каждого подкаталога загружались графы в формате pickle и соответствующие JSON-файлы с параметрами, среди которых area (площадь), inputs (общее число входов), outputs (общее число выходов), lev (число уровней), nd (число узлов) и edge (число ребер) | false | true | false | |
18,745 | 2026-02-24T14:50:36.056000 | 2026-02-24T14:50:36.056000 | Lec. | В предлагаемой модели для предсказания площади комбинационных схем применен подход на основе GraphSAGE, объединяющий локальные представления узлов и глобальные статистики графа | false | true | false | |
18,744 | 2026-02-24T14:50:33.240000 | 2026-02-24T14:50:33.240000 | Lec. | Архитектура модели AreaGNN | false | false | false | |
18,743 | 2026-02-24T14:50:30.712000 | 2026-02-24T14:50:30.712000 | Lec. | Но имеет хороший потенциал обучения за счет корректного подбора параметров и увеличения количества эпох в обучении | false | true | false | |
18,742 | 2026-02-24T14:50:28.163000 | 2026-02-24T14:50:28.164000 | Lec. | На рисунке 16 представлена другая модель, которая, несмотря на улучшенную способность к предсказанию параметров комбинационной схемы по сравнению с предшественницей, все еще обладает высоким значением среднеквадратичной ошибки (MSE), почти около 800 | false | true | false | |
18,741 | 2026-02-24T14:50:25.637000 | 2026-02-24T14:50:25.637000 | Lec. | Такое состояние модели не позволяет эффективно адаптироваться к новым данным и обеспечивать адекватное предсказание | false | true | false | |
18,740 | 2026-02-24T14:50:23.119000 | 2026-02-24T14:50:23.119000 | Lec. | В другом случае модель выдает среднее значение по выборке | false | true | false | |
18,739 | 2026-02-24T14:50:20.715000 | 2026-02-24T14:50:20.715000 | Lec. | Данное явление характеризуется тем, что модель становится «зацикленно» на обучающем наборе данных и теряет способность к обобщению, что проявляется в выдаче однообразных результатов на разных входных данных | false | true | false | |
18,738 | 2026-02-24T14:50:18.174000 | 2026-02-24T14:50:18.174000 | Lec. | На рисунке 15 демонстрируется результат некорректного подбора гиперпараметров и архитектуры модели в процессе обучения, в результате чего произошло переобучение | false | true | false | |
18,737 | 2026-02-24T14:50:15.829000 | 2026-02-24T14:50:15.829000 | Lec. | Результаты обучения модели AreaSGNN | false | true | false | |
18,736 | 2026-02-24T14:50:12.135000 | 2026-02-24T14:50:12.135000 | Lec. | Данные загружаются батчами с параллельной предобработкой (num_workers=12), что ускоряет обучение на глубоких и широких графах (~8-9 МБ на файл) | false | true | false | |
18,735 | 2026-02-24T14:50:09.595000 | 2026-02-24T14:50:09.595000 | Lec. | Обучение проводится с MSE-лоссом, валидация — по метрике R² в логарифмическом пространстве | false | true | false | |
18,734 | 2026-02-24T14:50:07.073000 | 2026-02-24T14:50:07.073000 | Lec. | Признаки агрегируются через глобальные mean и max-пулинг, объединяются в вектор размерности 256 и проходят через два полносвязных слоя с понижением размерности до 1 | false | true | false | |
18,733 | 2026-02-24T14:50:04.468000 | 2026-02-24T14:50:04.468000 | Lec. | Для улучшения градиентного потока добавлена residual-связь между вторым и третьим слоями | false | true | false | |
18,732 | 2026-02-24T14:50:01.879000 | 2026-02-24T14:50:01.879000 | Lec. | Архитектура включает три последовательных графовых слоя SAGEConv с batch-нормализацией, ReLU и dropout для регуляризации | false | true | false | |
18,731 | 2026-02-24T14:49:59.052000 | 2026-02-24T14:49:59.052000 | Lec. | Каждый узел графа кодируется one-hot вектором типа элемента и нормализованной степенью соединения | false | true | false | |
18,730 | 2026-02-24T14:49:56.534000 | 2026-02-24T14:49:56.534000 | Lec. | Модель AreaSGNN предсказывает площадь комбинационной схемы, представленной в виде графов | false | true | false | |
18,729 | 2026-02-24T14:49:54.050000 | 2026-02-24T14:49:54.050000 | Lec. | Архитектура модели AreaSGNN | false | false | false | |
18,728 | 2026-02-24T14:49:51.651000 | 2026-02-24T14:49:51.651000 | Lec. | Архитектура модели AreaSGCN | false | false | false | |
18,727 | 2026-02-24T14:49:49.029000 | 2026-02-24T14:49:49.029000 | Lec. | Текущий график визуально показывает, что модель не переобучилась, что остатки примерно нормально распределены, и нет явных «хвостов» или систематических сдвигов | false | true | false | |
18,726 | 2026-02-24T14:49:46.327000 | 2026-02-24T14:49:46.327000 | Lec. | Target Distribution — гистограмма самих значений задержек | false | true | false | |
18,725 | 2026-02-24T14:49:43.056000 | 2026-02-24T14:49:43.056000 | Lec. | Target Distribution | false | true | false | |
18,724 | 2026-02-24T14:49:40.396000 | 2026-02-24T14:49:40.396000 | Lec. | Легкое рассеяние вокруг этой линии указывает на небольшие локальные отклонения, тогда как отсутствие заметных систематических смещений говорит о хорошей калибровке и сбалансированной работе регрессионной головы сети | false | true | false | |
18,723 | 2026-02-24T14:49:37.770000 | 2026-02-24T14:49:37.770000 | Lec. | Точки, расположенные вдоль наклоненной пунктирной линии, свидетельствуют об идеальном совпадении прогноза и реального результата | false | true | false | |
18,722 | 2026-02-24T14:49:35.252000 | 2026-02-24T14:49:35.252000 | Lec. | Диаграмма разброса показывает, насколько близки предсказания модели к фактическим значениям задержки в комбинационных схемах | false | true | false | |
18,721 | 2026-02-24T14:49:32.438000 | 2026-02-24T14:49:32.438000 | Lec. | Оценка разницы между верной и предсказанной задержкой | false | true | false | |
18,720 | 2026-02-24T14:49:30.132000 | 2026-02-24T14:49:30.132000 | Lec. | Резкий скачок в одной из эпох свидетельствует об одном из редких «неудачных» обновлений, но общее нисходящее движение валидационной потери подтверждает стабильное улучшение обобщающей способности сети | false | true | false | |
18,719 | 2026-02-24T14:49:27.262000 | 2026-02-24T14:49:27.262000 | Lec. | Постепенное снижение тренировочной кривой указывает на эффективное усвоение модели структуры данных, а зубчатая валидационная кривая отражает чувствительность к отдельным батчам и следит за переобучением | false | true | false | |
18,718 | 2026-02-24T14:49:24.308000 | 2026-02-24T14:49:24.308000 | Lec. | График демонстрирует эволюцию средних значений функции потерь на обучающей и валидационной выборках в процессе тренировок | false | true | false | |
18,717 | 2026-02-24T14:49:21.601000 | 2026-02-24T14:49:21.601000 | Lec. | Оценка тренировочной и валидационной ошибки во время обучения | false | true | false | |
18,716 | 2026-02-24T14:49:19.054000 | 2026-02-24T14:49:19.054000 | Lec. | Оценка и визуализация результатов обучения FinalGNN | false | true | false | |
18,715 | 2026-02-24T14:49:16.177000 | 2026-02-24T14:49:16.177000 | Lec. | Такой подход гарантирует сохранение лучшей зафиксированной конфигурации сети для последующего восстановления | false | true | false | |
18,714 | 2026-02-24T14:49:13.680000 | 2026-02-24T14:49:13.680000 | Lec. | Если новая средняя ошибка оказывается ниже, текущие веса модели сохраняются в файл final_gnn_model.pth | false | true | false | |
18,713 | 2026-02-24T14:49:11.143000 | 2026-02-24T14:49:11.143000 | Lec. | После завершения прохода проверяется, упала ли полученная валидационная потеря ниже предыдущего минимума | false | true | false | |
18,712 | 2026-02-24T14:49:08.711000 | 2026-02-24T14:49:08.711000 | Lec. | Значения потерь собраны по всем батчам и усреднены, что позволяет получить единую метрику val_loss для оценки текущего состояния модели | false | true | false | |
18,711 | 2026-02-24T14:49:06.189000 | 2026-02-24T14:49:06.189000 | Lec. | На каждом батче из валидационного загрузчика производится прямой проход, и с помощью той же функции потерь SmoothL1Loss вычисляется расхождение между прогнозом и нормализованной целью | false | true | false | |
18,710 | 2026-02-24T14:49:03.601000 | 2026-02-24T14:49:03.601000 | Lec. | Все вычисления выполняются в контексте без градиентного отслеживания torch.no_grad(), что уменьшает расход памяти и ускоряет проход по валидационному набору | false | true | false | |
18,709 | 2026-02-24T14:49:00.897000 | 2026-02-24T14:49:00.897000 | Lec. | Перед началом валидации сеть переводится в режим eval(), что отключает стохастические механизмы регуляризации Dropout и фиксирует поведение слоев нормализации по батчам | false | true | false | |
18,708 | 2026-02-24T14:48:58.401000 | 2026-02-24T14:48:58.401000 | Lec. | Валидационный проход | false | true | false | |
18,707 | 2026-02-24T14:48:55.710000 | 2026-02-24T14:48:55.710000 | Lec. | Динамика этой метрики служит индикатором сходимости: плавное снижение среднего лосса указывает на успешное обучение, тогда как его стагнация или рост может сигнализировать о необходимости корректировки гиперпараметров | false | true | false | |
18,706 | 2026-02-24T14:48:52.848000 | 2026-02-24T14:48:52.848000 | Lec. | Значения потерь из каждого батча аккумулируются в локальной переменной, что позволяет по окончании прохода вычислить среднюю тренировочную ошибку за эпоху | false | true | false | |
18,705 | 2026-02-24T14:48:50.273000 | 2026-02-24T14:48:50.273000 | Lec. | Завершает итерацию вызов optimizer.zero_grad(), который обнуляет накопленные градиенты, подготавливая модель к следующему батчу | false | true | false | |
18,704 | 2026-02-24T14:48:47.838000 | 2026-02-24T14:48:47.838000 | Lec. | Для оптимизации используются методы optimizer.step() и scheduler.step(), обеспечивающие обновление весов AdamW и корректировку темпа обучения по тригонометрическому расписанию CosineAnnealingLR | false | false | false | |
18,703 | 2026-02-24T14:48:44.555000 | 2026-02-24T14:48:44.555000 | Lec. | Затем вызван loss.backward(), что инициирует обратное распространение градиентов по всем параметрам модели | false | true | false | |
18,702 | 2026-02-24T14:48:42.072000 | 2026-02-24T14:48:42.072000 | Lec. | Вычисленная разница между прогнозом и нормализованной целью обрабатывается функцией потерь (Smooth L1 Loss) | false | true | false | |
18,701 | 2026-02-24T14:48:39.416000 | 2026-02-24T14:48:39.416000 | Lec. | Далее выполняется прямой проход через GNN: на основе входных признаков узлов и индексов ребер сеть формирует предсказание нормализованной задержки | false | true | false | |
18,700 | 2026-02-24T14:48:36.767000 | 2026-02-24T14:48:36.767000 | Lec. | Нормализация выравнивает масштаб целевой переменной, что способствует более стабильной работе оптимизатора | false | true | false | |
18,699 | 2026-02-24T14:48:33.939000 | 2026-02-24T14:48:33.939000 | Lec. | При получении очередного батча данных из загрузчика сначала извлекаются истинные значения задержки и происходит нормализация по заранее сохраненным параметрам μ и σ | false | true | false | |
18,698 | 2026-02-24T14:48:31.215000 | 2026-02-24T14:48:31.215000 | Lec. | Режим активирует все внутренние механизмы обучения, в частности слои Dropout и BatchNorm начинают корректно функционировать, обеспечивая стохастическую регуляризацию и согласованную статистику по батчу | false | true | false | |
18,697 | 2026-02-24T14:48:28.334000 | 2026-02-24T14:48:28.334000 | Lec. | Перед началом каждого тренировочного прохода экземпляр сети переводится в тренировочный режим с помощью метода model.train() | false | true | false | |
18,696 | 2026-02-24T14:48:25.696000 | 2026-02-24T14:48:25.696000 | Lec. | Тренировочный проход | false | true | false | |
18,695 | 2026-02-24T14:48:23.229000 | 2026-02-24T14:48:23.229000 | Lec. | Каждая эпоха включала два этапа: | false | true | false | |
18,694 | 2026-02-24T14:48:20.785000 | 2026-02-24T14:48:20.785000 | Lec. | Обучение модели велось в течение до 40 эпох с ранней остановкой: при отсутствии улучшения валидационной потери на протяжении 10 последовательных эпох цикл прерывался | false | true | false | |
18,693 | 2026-02-24T14:48:18.286000 | 2026-02-24T14:48:18.286000 | Lec. | Он помог снизить ошибку обучения и сделать снижение валидационной ошибки плавным | false | true | false | |
18,692 | 2026-02-24T14:48:15.448000 | 2026-02-24T14:48:15.448000 | Lec. | Функция потерь SmoothL1Loss он же (Huber Loss), сочетающий в себе устойчивость к редким выбросам, присущую MAE, и дифференцируемость, аналогичную MSE | false | true | false | |
18,691 | 2026-02-24T14:48:12.910000 | 2026-02-24T14:48:12.910000 | Lec. | Скорость обучения изменялась по косинусному закону с помощью CosineAnnealingLR [27] и параметром T_max=35, что обеспечило плавное снижение шага оптимизации в процессе тренировки | false | true | false | |
18,690 | 2026-02-24T14:48:09.734000 | 2026-02-24T14:48:09.734000 | Lec. | Для оптимизации параметров модели был выбран алгоритм AdamW(адаптивный момент с decoupled weight decay) [26] со скоростью обучения 1× и коэффициентом регуляризации 1× | false | true | false | |
18,689 | 2026-02-24T14:48:06.882000 | 2026-02-24T14:48:06.882000 | Lec. | Процесс обучения | false | true | false | |
18,688 | 2026-02-24T14:48:04.425000 | 2026-02-24T14:48:04.425000 | Lec. | Linear(256,1) Последний линейный слой выдает единичное число — нормализованную задержку | false | false | false | |
18,687 | 2026-02-24T14:48:02.033000 | 2026-02-24T14:48:02.033000 | Lec. | Linear(512, 256) → ReLU → Dropout Еще раз ужимает и вводит нелинейность с небольшим эффектом регуляризации | false | true | false | |
18,686 | 2026-02-24T14:47:58.790000 | 2026-02-24T14:47:58.790000 | Lec. | BatchNorm(512) → ReLU → Dropout: пакетная нормализация выравнивает средние и дисперсии активаций, ReLU вводит нелинейность, а Dropout выполняет регуляризацию, случайно обнуляя часть признаков | false | true | false | |
18,685 | 2026-02-24T14:47:55.835000 | 2026-02-24T14:47:55.835000 | Lec. | Блок Linear(1024, 512) [25] Снижает размерность вдвое, чтобы убрать избыточность и подготовить к нормализации батча | false | true | false | |
18,684 | 2026-02-24T14:47:53.142000 | 2026-02-24T14:47:53.142000 | Lec. | Модель регрессионной головы | false | true | false | |
18,683 | 2026-02-24T14:47:50.793000 | 2026-02-24T14:47:50.793000 | Lec. | Регрессионная голова | false | true | false | |
18,682 | 2026-02-24T14:47:48.186000 | 2026-02-24T14:47:48.186000 | Lec. | Затем проведено склеивание для получения вектора 2H | false | true | false | |
18,681 | 2026-02-24T14:47:45.861000 | 2026-02-24T14:47:45.861000 | Lec. | Для получения представления всего графа, вычислялись усреднение по всем узлам и поэлементный максимум по всем узлам: global_mean_pool [24] усредняем признаки по всем узлам. global_max_pool [24] берет максимум по каждому признаку | false | true | false | |
18,680 | 2026-02-24T14:47:42.475000 | 2026-02-24T14:47:42.475000 | Lec. | После трех блоков GraphSAGE использовались по-узловые векторы размерности H | false | true | false | |
18,679 | 2026-02-24T14:47:39.836000 | 2026-02-24T14:47:39.836000 | Lec. | Глобальная агрегация | false | true | false | |
18,678 | 2026-02-24T14:47:37.398000 | 2026-02-24T14:47:37.398000 | Lec. | Между первым и вторым, вторым и третьим — остаточные связи: берем выход блока и прибавляем к нему выход следующего SAGEConv, чтобы сделать стабилизацию градиентов | false | true | false | |
18,677 | 2026-02-24T14:47:34.666000 | 2026-02-24T14:47:34.666000 | Lec. | Dropout необходим при глубине графов свыше 3 слоев и 10 элементов | false | true | false | |
18,676 | 2026-02-24T14:47:32.067000 | 2026-02-24T14:47:32.067000 | Lec. | Dropout [23] случайно «обнуляет» часть признаков, чтобы не было переобучения, которое может быть вызвано сомнительными вероятностями равными менее 1% | false | true | false | |
18,675 | 2026-02-24T14:47:29.411000 | 2026-02-24T14:47:29.411000 | Lec. | ReLU [19] добавляет нелинейность, «обрезая» отрицательные значения | false | true | false | |
18,674 | 2026-02-24T14:47:26.531000 | 2026-02-24T14:47:26.531000 | Lec. | BatchNorm [22] делает нормализацию активации каждого из 512 признаков по батчу, выравнивая их среднее и дисперсию | false | true | false | |
18,673 | 2026-02-24T14:47:23.684000 | 2026-02-24T14:47:23.684000 | Lec. | Каждый блок SAGEConv [21] производит агрегацию соседей и преобразует входные вектора из размерности in в размерность out = 512 | false | true | false | |
18,672 | 2026-02-24T14:47:20.829000 | 2026-02-24T14:47:20.829000 | Lec. | GraphSAGE-блоки (x3) | false | false | false | |
18,671 | 2026-02-24T14:47:18.013000 | 2026-02-24T14:47:18.013000 | Lec. | Структура модели | false | true | false | |
18,670 | 2026-02-24T14:47:14.399000 | 2026-02-24T14:47:14.399000 | Lec. | Архитектура модели FinalGNN | false | false | false | |
18,669 | 2026-02-24T14:47:11.642000 | 2026-02-24T14:47:11.642000 | Lec. | В результате получены готовые загрузчики для обучения и тестирования, словарь кодирования типов узлов и параметры нормализации таргета | false | true | false | |
18,668 | 2026-02-24T14:47:09.097000 | 2026-02-24T14:47:09.097000 | Lec. | Загрузчики настраиваются через параметры размера батча, числа параллельных процессов и отключенной фиксации памяти, что обеспечивает эффективную подгрузку тяжелых объектов графов | false | true | false | |
18,667 | 2026-02-24T14:47:06.229000 | 2026-02-24T14:47:06.229000 | Lec. | Для обучения и проверки формируются загрузчики пакетов, объединяющие батчи графов с помощью пользовательской функции custom_collate, которая отбрасывает некорректно прочитанные образцы | false | true | false | |
18,666 | 2026-02-24T14:47:01.568000 | 2026-02-24T14:47:01.568000 | Lec. | Оба параметра сохраняются в файл metadata.json и далее используются для стандартизации таргета как при обучении, так и при последующем прогнозировании, что позволяет ускорить сходимость и стабилизировать градиенты | false | true | false | |
18,665 | 2026-02-24T14:46:58.989000 | 2026-02-24T14:46:58.989000 | Lec. | Из обучающей выборки извлекаются все значения задержки, по ним вычисляются среднее μ и стандартное отклонение σ | false | true | false | |
18,664 | 2026-02-24T14:46:55.681000 | 2026-02-24T14:46:55.681000 | Lec. | Фиксированный random_state обеспечивает воспроизводимость разделения при повторных запусках эксперимента | false | true | false | |
18,663 | 2026-02-24T14:46:53.049000 | 2026-02-24T14:46:53.049000 | Lec. | Индексы оставшихся графов случайным образом разделяются в соотношении 80 % к 20 % для обучения и валидации соответственно | false | true | false | |
18,662 | 2026-02-24T14:46:50.537000 | 2026-02-24T14:46:50.537000 | Lec. | Полученный словарь type_to_idx позже используется для кодирования категориальных признаков узлов в формат one-hot | false | true | false | |
18,661 | 2026-02-24T14:46:47.622000 | 2026-02-24T14:46:47.622000 | Lec. | После завершения обхода множество типов упорядочивается в лексикографическом порядке, и каждому типу присваивается целочисленный индекс | false | true | false | |
18,660 | 2026-02-24T14:46:45.291000 | 2026-02-24T14:46:45.291000 | Lec. | В ходе фильтрации производится одновременный сбор всех уникальных типов узлов из атрибутов графов | false | true | false | |
18,659 | 2026-02-24T14:46:42.767000 | 2026-02-24T14:46:42.767000 | Lec. | Графы с нулевым значением задержки автоматически исключаются из дальнейшей обработки, поскольку они не вносят информации для обучения регрессора | false | true | false | |
18,658 | 2026-02-24T14:46:40.128000 | 2026-02-24T14:46:40.129000 | Lec. | Для каждого загруженного графа извлекается значение задержки из метаданных графа или из дополнительного JSON-файла, если свойство «delay» отсутствует в графе напрямую | false | true | false |
End of preview. Expand
in Data Studio
No dataset card yet
- Downloads last month
- 11