Dataset Viewer
Auto-converted to Parquet Duplicate
id
int64
18
18.8k
created_at
timestamp[us, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 14:51:09
updated_at
timestamp[us, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 14:51:09
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
18,757
2026-02-24T14:51:09.943000
2026-02-24T14:51:09.943000
Lec.
Отсутствие выраженных систематических отклонений и равномерное распределение точек вдоль диагонали свидетельствуют о сбалансированной обученной модели и ее способности учитывать основные структурные факторы при предсказании
false
true
false
18,756
2026-02-24T14:51:07.285000
2026-02-24T14:51:07.285000
Lec.
Небольшое смещение точек вниз указывает на тенденцию к недооценке площади в более крупных графах, тогда как в районе средней величины разброс минимален
false
true
false
18,755
2026-02-24T14:51:04.409000
2026-02-24T14:51:04.409000
Lec.
Диаграмма рассеяния демонстрирует плотность точек вокруг идеальной линии y = x, отражающей абсолютное совпадение прогноза и реального значения площади схемы
false
true
false
18,754
2026-02-24T14:51:01.741000
2026-02-24T14:51:01.741000
Lec.
Оценка разницы между верной и предсказанной площадью
false
true
false
18,753
2026-02-24T14:50:59.433000
2026-02-24T14:50:59.433000
Lec.
Оценка и визуализация результатов обучения AreaGNN
false
false
false
18,752
2026-02-24T14:50:56.580000
2026-02-24T14:50:56.580000
Lec.
Она показала способность предсказывать задержку выше чем средняя величина по выборке
false
true
false
18,751
2026-02-24T14:50:53.754000
2026-02-24T14:50:53.754000
Lec.
Модель хорошо определяет задержки
false
true
false
18,750
2026-02-24T14:50:50.972000
2026-02-24T14:50:50.972000
Lec.
Для оптимизации использовался AdamW с небольшим весовым распадом, в качестве функции потерь — HuberLoss, а для управления скоростью обучения и ранней остановки применялся ReduceLROnPlateau и механизм early stopping, что в совокупности позволило существенно снизить относительную ошибку и повысить устойчивость предсказаний на валидационном наборе
false
true
false
18,749
2026-02-24T14:50:47.661000
2026-02-24T14:50:47.661000
Lec.
Архитектура модели состоит из трех слоев SAGEConv с BatchNorm и Dropout, за которыми следует конкатенация глобального mean- и max-пулинга с вектором глобальных фичей и два полносвязных слоя с ReLU и Dropout, завершающихся единичным нейроном регрессии
false
true
false
18,748
2026-02-24T14:50:44.604000
2026-02-24T14:50:44.604000
Lec.
Целевая переменная area подвергалась логарифмированию (log1p) и стандартизации по среднему и стандартному отклонению для сглаживания мультипликативного разброса
false
true
false
18,747
2026-02-24T14:50:41.966000
2026-02-24T14:50:41.966000
Lec.
Для каждой вершины формировался вектор признаков, включающий one-hot код типа узла и нормализованную степень связи, а для всего графа — отдельный вектор глобальных фичей: inputs, outputs, lev, nd, edge, напрямую влияющих на площадь схемы и потому используемых в обучении
false
true
false
18,746
2026-02-24T14:50:38.746000
2026-02-24T14:50:38.746000
Lec.
На этапе подготовки данных из каждого подкаталога загружались графы в формате pickle и соответствующие JSON-файлы с параметрами, среди которых area (площадь), inputs (общее число входов), outputs (общее число выходов), lev (число уровней), nd (число узлов) и edge (число ребер)
false
true
false
18,745
2026-02-24T14:50:36.056000
2026-02-24T14:50:36.056000
Lec.
В предлагаемой модели для предсказания площади комбинационных схем применен подход на основе GraphSAGE, объединяющий локальные представления узлов и глобальные статистики графа
false
true
false
18,744
2026-02-24T14:50:33.240000
2026-02-24T14:50:33.240000
Lec.
Архитектура модели AreaGNN
false
false
false
18,743
2026-02-24T14:50:30.712000
2026-02-24T14:50:30.712000
Lec.
Но имеет хороший потенциал обучения за счет корректного подбора параметров и увеличения количества эпох в обучении
false
true
false
18,742
2026-02-24T14:50:28.163000
2026-02-24T14:50:28.164000
Lec.
На рисунке 16 представлена другая модель, которая, несмотря на улучшенную способность к предсказанию параметров комбинационной схемы по сравнению с предшественницей, все еще обладает высоким значением среднеквадратичной ошибки (MSE), почти около 800
false
true
false
18,741
2026-02-24T14:50:25.637000
2026-02-24T14:50:25.637000
Lec.
Такое состояние модели не позволяет эффективно адаптироваться к новым данным и обеспечивать адекватное предсказание
false
true
false
18,740
2026-02-24T14:50:23.119000
2026-02-24T14:50:23.119000
Lec.
В другом случае модель выдает среднее значение по выборке
false
true
false
18,739
2026-02-24T14:50:20.715000
2026-02-24T14:50:20.715000
Lec.
Данное явление характеризуется тем, что модель становится «зацикленно» на обучающем наборе данных и теряет способность к обобщению, что проявляется в выдаче однообразных результатов на разных входных данных
false
true
false
18,738
2026-02-24T14:50:18.174000
2026-02-24T14:50:18.174000
Lec.
На рисунке 15 демонстрируется результат некорректного подбора гиперпараметров и архитектуры модели в процессе обучения, в результате чего произошло переобучение
false
true
false
18,737
2026-02-24T14:50:15.829000
2026-02-24T14:50:15.829000
Lec.
Результаты обучения модели AreaSGNN
false
true
false
18,736
2026-02-24T14:50:12.135000
2026-02-24T14:50:12.135000
Lec.
Данные загружаются батчами с параллельной предобработкой (num_workers=12), что ускоряет обучение на глубоких и широких графах (~8-9 МБ на файл)
false
true
false
18,735
2026-02-24T14:50:09.595000
2026-02-24T14:50:09.595000
Lec.
Обучение проводится с MSE-лоссом, валидация — по метрике R² в логарифмическом пространстве
false
true
false
18,734
2026-02-24T14:50:07.073000
2026-02-24T14:50:07.073000
Lec.
Признаки агрегируются через глобальные mean и max-пулинг, объединяются в вектор размерности 256 и проходят через два полносвязных слоя с понижением размерности до 1
false
true
false
18,733
2026-02-24T14:50:04.468000
2026-02-24T14:50:04.468000
Lec.
Для улучшения градиентного потока добавлена residual-связь между вторым и третьим слоями
false
true
false
18,732
2026-02-24T14:50:01.879000
2026-02-24T14:50:01.879000
Lec.
Архитектура включает три последовательных графовых слоя SAGEConv с batch-нормализацией, ReLU и dropout для регуляризации
false
true
false
18,731
2026-02-24T14:49:59.052000
2026-02-24T14:49:59.052000
Lec.
Каждый узел графа кодируется one-hot вектором типа элемента и нормализованной степенью соединения
false
true
false
18,730
2026-02-24T14:49:56.534000
2026-02-24T14:49:56.534000
Lec.
Модель AreaSGNN предсказывает площадь комбинационной схемы, представленной в виде графов
false
true
false
18,729
2026-02-24T14:49:54.050000
2026-02-24T14:49:54.050000
Lec.
Архитектура модели AreaSGNN
false
false
false
18,728
2026-02-24T14:49:51.651000
2026-02-24T14:49:51.651000
Lec.
Архитектура модели AreaSGCN
false
false
false
18,727
2026-02-24T14:49:49.029000
2026-02-24T14:49:49.029000
Lec.
Текущий график визуально показывает, что модель не переобучилась, что остатки примерно нормально распределены, и нет явных «хвостов» или систематических сдвигов
false
true
false
18,726
2026-02-24T14:49:46.327000
2026-02-24T14:49:46.327000
Lec.
Target Distribution — гистограмма самих значений задержек
false
true
false
18,725
2026-02-24T14:49:43.056000
2026-02-24T14:49:43.056000
Lec.
Target Distribution
false
true
false
18,724
2026-02-24T14:49:40.396000
2026-02-24T14:49:40.396000
Lec.
Легкое рассеяние вокруг этой линии указывает на небольшие локальные отклонения, тогда как отсутствие заметных систематических смещений говорит о хорошей калибровке и сбалансированной работе регрессионной головы сети
false
true
false
18,723
2026-02-24T14:49:37.770000
2026-02-24T14:49:37.770000
Lec.
Точки, расположенные вдоль наклоненной пунктирной линии, свидетельствуют об идеальном совпадении прогноза и реального результата
false
true
false
18,722
2026-02-24T14:49:35.252000
2026-02-24T14:49:35.252000
Lec.
Диаграмма разброса показывает, насколько близки предсказания модели к фактическим значениям задержки в комбинационных схемах
false
true
false
18,721
2026-02-24T14:49:32.438000
2026-02-24T14:49:32.438000
Lec.
Оценка разницы между верной и предсказанной задержкой
false
true
false
18,720
2026-02-24T14:49:30.132000
2026-02-24T14:49:30.132000
Lec.
Резкий скачок в одной из эпох свидетельствует об одном из редких «неудачных» обновлений, но общее нисходящее движение валидационной потери подтверждает стабильное улучшение обобщающей способности сети
false
true
false
18,719
2026-02-24T14:49:27.262000
2026-02-24T14:49:27.262000
Lec.
Постепенное снижение тренировочной кривой указывает на эффективное усвоение модели структуры данных, а зубчатая валидационная кривая отражает чувствительность к отдельным батчам и следит за переобучением
false
true
false
18,718
2026-02-24T14:49:24.308000
2026-02-24T14:49:24.308000
Lec.
График демонстрирует эволюцию средних значений функции потерь на обучающей и валидационной выборках в процессе тренировок
false
true
false
18,717
2026-02-24T14:49:21.601000
2026-02-24T14:49:21.601000
Lec.
Оценка тренировочной и валидационной ошибки во время обучения
false
true
false
18,716
2026-02-24T14:49:19.054000
2026-02-24T14:49:19.054000
Lec.
Оценка и визуализация результатов обучения FinalGNN
false
true
false
18,715
2026-02-24T14:49:16.177000
2026-02-24T14:49:16.177000
Lec.
Такой подход гарантирует сохранение лучшей зафиксированной конфигурации сети для последующего восстановления
false
true
false
18,714
2026-02-24T14:49:13.680000
2026-02-24T14:49:13.680000
Lec.
Если новая средняя ошибка оказывается ниже, текущие веса модели сохраняются в файл final_gnn_model.pth
false
true
false
18,713
2026-02-24T14:49:11.143000
2026-02-24T14:49:11.143000
Lec.
После завершения прохода проверяется, упала ли полученная валидационная потеря ниже предыдущего минимума
false
true
false
18,712
2026-02-24T14:49:08.711000
2026-02-24T14:49:08.711000
Lec.
Значения потерь собраны по всем батчам и усреднены, что позволяет получить единую метрику val_loss для оценки текущего состояния модели
false
true
false
18,711
2026-02-24T14:49:06.189000
2026-02-24T14:49:06.189000
Lec.
На каждом батче из валидационного загрузчика производится прямой проход, и с помощью той же функции потерь SmoothL1Loss вычисляется расхождение между прогнозом и нормализованной целью
false
true
false
18,710
2026-02-24T14:49:03.601000
2026-02-24T14:49:03.601000
Lec.
Все вычисления выполняются в контексте без градиентного отслеживания torch.no_grad(), что уменьшает расход памяти и ускоряет проход по валидационному набору
false
true
false
18,709
2026-02-24T14:49:00.897000
2026-02-24T14:49:00.897000
Lec.
Перед началом валидации сеть переводится в режим eval(), что отключает стохастические механизмы регуляризации Dropout и фиксирует поведение слоев нормализации по батчам
false
true
false
18,708
2026-02-24T14:48:58.401000
2026-02-24T14:48:58.401000
Lec.
Валидационный проход
false
true
false
18,707
2026-02-24T14:48:55.710000
2026-02-24T14:48:55.710000
Lec.
Динамика этой метрики служит индикатором сходимости: плавное снижение среднего лосса указывает на успешное обучение, тогда как его стагнация или рост может сигнализировать о необходимости корректировки гиперпараметров
false
true
false
18,706
2026-02-24T14:48:52.848000
2026-02-24T14:48:52.848000
Lec.
Значения потерь из каждого батча аккумулируются в локальной переменной, что позволяет по окончании прохода вычислить среднюю тренировочную ошибку за эпоху
false
true
false
18,705
2026-02-24T14:48:50.273000
2026-02-24T14:48:50.273000
Lec.
Завершает итерацию вызов optimizer.zero_grad(), который обнуляет накопленные градиенты, подготавливая модель к следующему батчу
false
true
false
18,704
2026-02-24T14:48:47.838000
2026-02-24T14:48:47.838000
Lec.
Для оптимизации используются методы optimizer.step() и scheduler.step(), обеспечивающие обновление весов AdamW и корректировку темпа обучения по тригонометрическому расписанию CosineAnnealingLR
false
false
false
18,703
2026-02-24T14:48:44.555000
2026-02-24T14:48:44.555000
Lec.
Затем вызван loss.backward(), что инициирует обратное распространение градиентов по всем параметрам модели
false
true
false
18,702
2026-02-24T14:48:42.072000
2026-02-24T14:48:42.072000
Lec.
Вычисленная разница между прогнозом и нормализованной целью обрабатывается функцией потерь (Smooth L1 Loss)
false
true
false
18,701
2026-02-24T14:48:39.416000
2026-02-24T14:48:39.416000
Lec.
Далее выполняется прямой проход через GNN: на основе входных признаков узлов и индексов ребер сеть формирует предсказание нормализованной задержки
false
true
false
18,700
2026-02-24T14:48:36.767000
2026-02-24T14:48:36.767000
Lec.
Нормализация выравнивает масштаб целевой переменной, что способствует более стабильной работе оптимизатора
false
true
false
18,699
2026-02-24T14:48:33.939000
2026-02-24T14:48:33.939000
Lec.
При получении очередного батча данных из загрузчика сначала извлекаются истинные значения задержки и происходит нормализация по заранее сохраненным параметрам μ и σ
false
true
false
18,698
2026-02-24T14:48:31.215000
2026-02-24T14:48:31.215000
Lec.
Режим активирует все внутренние механизмы обучения, в частности слои Dropout и BatchNorm начинают корректно функционировать, обеспечивая стохастическую регуляризацию и согласованную статистику по батчу
false
true
false
18,697
2026-02-24T14:48:28.334000
2026-02-24T14:48:28.334000
Lec.
Перед началом каждого тренировочного прохода экземпляр сети переводится в тренировочный режим с помощью метода model.train()
false
true
false
18,696
2026-02-24T14:48:25.696000
2026-02-24T14:48:25.696000
Lec.
Тренировочный проход
false
true
false
18,695
2026-02-24T14:48:23.229000
2026-02-24T14:48:23.229000
Lec.
Каждая эпоха включала два этапа:
false
true
false
18,694
2026-02-24T14:48:20.785000
2026-02-24T14:48:20.785000
Lec.
Обучение модели велось в течение до 40 эпох с ранней остановкой: при отсутствии улучшения валидационной потери на протяжении 10 последовательных эпох цикл прерывался
false
true
false
18,693
2026-02-24T14:48:18.286000
2026-02-24T14:48:18.286000
Lec.
Он помог снизить ошибку обучения и сделать снижение валидационной ошибки плавным
false
true
false
18,692
2026-02-24T14:48:15.448000
2026-02-24T14:48:15.448000
Lec.
Функция потерь SmoothL1Loss он же (Huber Loss), сочетающий в себе устойчивость к редким выбросам, присущую MAE, и дифференцируемость, аналогичную MSE
false
true
false
18,691
2026-02-24T14:48:12.910000
2026-02-24T14:48:12.910000
Lec.
Скорость обучения изменялась по косинусному закону с помощью CosineAnnealingLR [27] и параметром T_max=35, что обеспечило плавное снижение шага оптимизации в процессе тренировки
false
true
false
18,690
2026-02-24T14:48:09.734000
2026-02-24T14:48:09.734000
Lec.
Для оптимизации параметров модели был выбран алгоритм AdamW(адаптивный момент с decoupled weight decay) [26] со скоростью обучения 1× и коэффициентом регуляризации 1×
false
true
false
18,689
2026-02-24T14:48:06.882000
2026-02-24T14:48:06.882000
Lec.
Процесс обучения
false
true
false
18,688
2026-02-24T14:48:04.425000
2026-02-24T14:48:04.425000
Lec.
Linear(256,1) Последний линейный слой выдает единичное число — нормализованную задержку​
false
false
false
18,687
2026-02-24T14:48:02.033000
2026-02-24T14:48:02.033000
Lec.
Linear(512, 256) → ReLU → Dropout Еще раз ужимает и вводит нелинейность с небольшим эффектом регуляризации
false
true
false
18,686
2026-02-24T14:47:58.790000
2026-02-24T14:47:58.790000
Lec.
BatchNorm(512) → ReLU → Dropout: пакетная нормализация выравнивает средние и дисперсии активаций, ReLU вводит нелинейность, а Dropout выполняет регуляризацию, случайно обнуляя часть признаков
false
true
false
18,685
2026-02-24T14:47:55.835000
2026-02-24T14:47:55.835000
Lec.
Блок Linear(1024, 512) [25] Снижает размерность вдвое, чтобы убрать избыточность и подготовить к нормализации батча
false
true
false
18,684
2026-02-24T14:47:53.142000
2026-02-24T14:47:53.142000
Lec.
Модель регрессионной головы
false
true
false
18,683
2026-02-24T14:47:50.793000
2026-02-24T14:47:50.793000
Lec.
Регрессионная голова
false
true
false
18,682
2026-02-24T14:47:48.186000
2026-02-24T14:47:48.186000
Lec.
Затем проведено склеивание для получения вектора 2H
false
true
false
18,681
2026-02-24T14:47:45.861000
2026-02-24T14:47:45.861000
Lec.
Для получения представления всего графа, вычислялись усреднение по всем узлам и поэлементный максимум по всем узлам: global_mean_pool [24] усредняем признаки по всем узлам. global_max_pool [24] берет максимум по каждому признаку
false
true
false
18,680
2026-02-24T14:47:42.475000
2026-02-24T14:47:42.475000
Lec.
После трех блоков GraphSAGE использовались по-узловые векторы размерности H
false
true
false
18,679
2026-02-24T14:47:39.836000
2026-02-24T14:47:39.836000
Lec.
Глобальная агрегация
false
true
false
18,678
2026-02-24T14:47:37.398000
2026-02-24T14:47:37.398000
Lec.
Между первым и вторым, вторым и третьим — остаточные связи: берем выход блока и прибавляем к нему выход следующего SAGEConv, чтобы сделать стабилизацию градиентов
false
true
false
18,677
2026-02-24T14:47:34.666000
2026-02-24T14:47:34.666000
Lec.
Dropout необходим при глубине графов свыше 3 слоев и 10 элементов
false
true
false
18,676
2026-02-24T14:47:32.067000
2026-02-24T14:47:32.067000
Lec.
Dropout [23] случайно «обнуляет» часть признаков, чтобы не было переобучения, которое может быть вызвано сомнительными вероятностями равными менее 1%
false
true
false
18,675
2026-02-24T14:47:29.411000
2026-02-24T14:47:29.411000
Lec.
ReLU [19] добавляет нелинейность, «обрезая» отрицательные значения
false
true
false
18,674
2026-02-24T14:47:26.531000
2026-02-24T14:47:26.531000
Lec.
BatchNorm [22] делает нормализацию активации каждого из 512 признаков по батчу, выравнивая их среднее и дисперсию
false
true
false
18,673
2026-02-24T14:47:23.684000
2026-02-24T14:47:23.684000
Lec.
Каждый блок SAGEConv [21] производит агрегацию соседей и преобразует входные вектора из размерности in в размерность out = 512
false
true
false
18,672
2026-02-24T14:47:20.829000
2026-02-24T14:47:20.829000
Lec.
GraphSAGE-блоки (x3)
false
false
false
18,671
2026-02-24T14:47:18.013000
2026-02-24T14:47:18.013000
Lec.
Структура модели
false
true
false
18,670
2026-02-24T14:47:14.399000
2026-02-24T14:47:14.399000
Lec.
Архитектура модели FinalGNN
false
false
false
18,669
2026-02-24T14:47:11.642000
2026-02-24T14:47:11.642000
Lec.
В результате получены готовые загрузчики для обучения и тестирования, словарь кодирования типов узлов и параметры нормализации таргета
false
true
false
18,668
2026-02-24T14:47:09.097000
2026-02-24T14:47:09.097000
Lec.
Загрузчики настраиваются через параметры размера батча, числа параллельных процессов и отключенной фиксации памяти, что обеспечивает эффективную подгрузку тяжелых объектов графов
false
true
false
18,667
2026-02-24T14:47:06.229000
2026-02-24T14:47:06.229000
Lec.
Для обучения и проверки формируются загрузчики пакетов, объединяющие батчи графов с помощью пользовательской функции custom_collate, которая отбрасывает некорректно прочитанные образцы
false
true
false
18,666
2026-02-24T14:47:01.568000
2026-02-24T14:47:01.568000
Lec.
Оба параметра сохраняются в файл metadata.json и далее используются для стандартизации таргета как при обучении, так и при последующем прогнозировании, что позволяет ускорить сходимость и стабилизировать градиенты
false
true
false
18,665
2026-02-24T14:46:58.989000
2026-02-24T14:46:58.989000
Lec.
Из обучающей выборки извлекаются все значения задержки, по ним вычисляются среднее μ и стандартное отклонение σ
false
true
false
18,664
2026-02-24T14:46:55.681000
2026-02-24T14:46:55.681000
Lec.
Фиксированный random_state обеспечивает воспроизводимость разделения при повторных запусках эксперимента
false
true
false
18,663
2026-02-24T14:46:53.049000
2026-02-24T14:46:53.049000
Lec.
Индексы оставшихся графов случайным образом разделяются в соотношении 80 % к 20 % для обучения и валидации соответственно
false
true
false
18,662
2026-02-24T14:46:50.537000
2026-02-24T14:46:50.537000
Lec.
Полученный словарь type_to_idx позже используется для кодирования категориальных признаков узлов в формат one-hot
false
true
false
18,661
2026-02-24T14:46:47.622000
2026-02-24T14:46:47.622000
Lec.
После завершения обхода множество типов упорядочивается в лексикографическом порядке, и каждому типу присваивается целочисленный индекс
false
true
false
18,660
2026-02-24T14:46:45.291000
2026-02-24T14:46:45.291000
Lec.
В ходе фильтрации производится одновременный сбор всех уникальных типов узлов из атрибутов графов
false
true
false
18,659
2026-02-24T14:46:42.767000
2026-02-24T14:46:42.767000
Lec.
Графы с нулевым значением задержки автоматически исключаются из дальнейшей обработки, поскольку они не вносят информации для обучения регрессора
false
true
false
18,658
2026-02-24T14:46:40.128000
2026-02-24T14:46:40.129000
Lec.
Для каждого загруженного графа извлекается значение задержки из метаданных графа или из дополнительного JSON-файла, если свойство «delay» отсутствует в графе напрямую
false
true
false
End of preview. Expand in Data Studio

No dataset card yet

Downloads last month
11