id int64 18 21.1k | created_at timestamp[ns, tz=UTC]date 2026-02-23 07:30:20 2026-02-24 16:54:39 | updated_at timestamp[ns, tz=UTC]date 2026-02-23 08:08:14 2026-02-24 16:54:39 | doc_name stringclasses 1
value | input stringlengths 11 9.24k | output stringlengths 0 738 | is_personal bool 2
classes | is_sentence bool 2
classes | is_corrected bool 2
classes |
|---|---|---|---|---|---|---|---|---|
11,707 | 2026-02-24T10:33:39.379000Z | 2026-02-24T10:33:39.379000Z | Lec. | Масштабируемость: Поддержка новых моделей через добавление классов в Models.py; | false | true | false | |
11,706 | 2026-02-24T10:33:37.869000Z | 2026-02-24T10:33:37.869000Z | Lec. | Сохранение лучшей модели по метрике (MSE/MAE) | false | true | false | |
11,705 | 2026-02-24T10:33:36.388000Z | 2026-02-24T10:33:36.388000Z | Lec. | Логирование в TensorBoard; | false | true | false | |
11,704 | 2026-02-24T10:33:34.730000Z | 2026-02-24T10:33:34.730000Z | Lec. | Обратные вызовы (Trainer_callback.py) | false | true | false | |
11,703 | 2026-02-24T10:33:30.976000Z | 2026-02-24T10:33:30.976000Z | Lec. | Ранняя остановка при отсутствии улучшений | false | true | false | |
11,702 | 2026-02-24T10:33:29.401000Z | 2026-02-24T10:33:29.401000Z | Lec. | Расчет метрик: MAE, MAPE, R²; | false | true | false | |
11,701 | 2026-02-24T10:33:27.843000Z | 2026-02-24T10:33:27.843000Z | Lec. | Валидация на валидационной выборке; | false | true | false | |
11,700 | 2026-02-24T10:33:21.700000Z | 2026-02-24T10:33:21.700000Z | Lec. | Шаг обучения далее пример:. python. def train_step(self, data):. self.model.train(). data = data.to(self.device). self.optimizer.zero_grad(). out = self.model(data). loss = F.mse_loss(out, data.y.view(-1, 1)). loss.backward(). self.optimizer.step(). return loss.item() | false | false | false | |
11,699 | 2026-02-24T10:33:19.900000Z | 2026-02-24T10:33:19.900000Z | Lec. | Настройка TrainerCallback для логирования; | false | true | false | |
11,698 | 2026-02-24T10:33:18.372000Z | 2026-02-24T10:33:18.372000Z | Lec. | Создание модели и оптимизатора (Adam); | false | true | false | |
11,697 | 2026-02-24T10:33:16.865000Z | 2026-02-24T10:33:16.865000Z | Lec. | Инициализация; | true | true | false | |
11,696 | 2026-02-24T10:33:14.835000Z | 2026-02-24T10:33:14.835000Z | Lec. | Цикл обучения; | false | true | false | |
11,695 | 2026-02-24T10:33:13.135000Z | 2026-02-24T10:33:13.135000Z | Lec. | Процесс обучения (HOGA_Trainer.py, Model_trainer.py) | false | true | false | |
11,694 | 2026-02-24T10:33:10.846000Z | 2026-02-24T10:33:10.846000Z | Lec. | GCNModel: Классическая графовая сверточная сеть | false | true | false | |
11,693 | 2026-02-24T10:33:09.153000Z | 2026-02-24T10:33:09.153000Z | Lec. | TransformerGNN: Использует TransformerConv для анализа глобальных зависимостей | false | true | false | |
11,692 | 2026-02-24T10:33:07.170000Z | 2026-02-24T10:33:07.170000Z | Lec. | Комбинирует GCN и механизмы внимания.Поддерживает многослойные преобразования | false | true | false | |
11,691 | 2026-02-24T10:33:05.419000Z | 2026-02-24T10:33:05.419000Z | Lec. | HOGA (High-Order Graph Attention): | false | true | false | |
11,690 | 2026-02-24T10:33:03.524000Z | 2026-02-24T10:33:03.524000Z | Lec. | Модели (Models.py) | false | false | false | |
11,689 | 2026-02-24T10:33:01.911000Z | 2026-02-24T10:33:01.911000Z | Lec. | Фильтрация: Удаление выбросов и некорректных данных | false | true | false | |
11,688 | 2026-02-24T10:33:00.337000Z | 2026-02-24T10:33:00.337000Z | Lec. | Нормализация: MinMaxScaler для таргетов; | false | true | false | |
11,687 | 2026-02-24T10:32:58.792000Z | 2026-02-24T10:32:58.792000Z | Lec. | Кодирование: One-hot encoding для типов узлов; | false | true | false | |
11,686 | 2026-02-24T10:32:57.321000Z | 2026-02-24T10:32:57.321000Z | Lec. | Парсинг: Преобразование схем в графы; | false | true | false | |
11,685 | 2026-02-24T10:32:55.544000Z | 2026-02-24T10:32:55.544000Z | Lec. | VerilogDataLoader: Работает с Verilog-файлами | false | true | false | |
11,684 | 2026-02-24T10:32:54.014000Z | 2026-02-24T10:32:54.014000Z | Lec. | GraphMLDataLoader: Обрабатывает схемы в формате GraphML; | false | false | false | |
11,683 | 2026-02-24T10:32:52.212000Z | 2026-02-24T10:32:52.212000Z | Lec. | Загрузка данных | false | false | false | |
11,682 | 2026-02-24T10:32:49.300000Z | 2026-02-24T10:32:49.300000Z | Lec. | Гиперпараметры: learning_rate, hidden_channels, dropout, num_epochs | false | false | false | |
11,681 | 2026-02-24T10:32:47.772000Z | 2026-02-24T10:32:47.772000Z | Lec. | Параметры конфигурация:. random_seed: Фиксация случайности;. parser_class: Выбор парсера (GraphMLParser/VerilogParser);. data_loader_class: Настройки загрузки данных (batch_size, encoder и т.д.);. trainer_class: Выбор модели (HOGA_Trainer, TransformerTrainer); | false | false | false | |
11,680 | 2026-02-24T10:32:46.111000Z | 2026-02-24T10:32:46.112000Z | Lec. | Ключевые компоненты | false | true | false | |
11,679 | 2026-02-24T10:32:44.467000Z | 2026-02-24T10:32:44.467000Z | Lec. | Callbacks: Логирование, сохранение чекпоинтов и ранняя остановка | false | true | false | |
11,678 | 2026-02-24T10:32:42.976000Z | 2026-02-24T10:32:42.976000Z | Lec. | Тренеры: Управление процессом обучения и валидации; | false | true | false | |
11,677 | 2026-02-24T10:32:41.009000Z | 2026-02-24T10:32:41.009000Z | Lec. | Модели: HOGA, TransformerGNN, GCN, GCN / GAT энкодеры; | false | true | false | |
11,676 | 2026-02-24T10:32:39.462000Z | 2026-02-24T10:32:39.462000Z | Lec. | DataLoader: Загрузка и предобработка данных (GraphML/Verilog); | false | true | false | |
11,675 | 2026-02-24T10:32:37.562000Z | 2026-02-24T10:32:37.562000Z | Lec. | Конфигурацию JSON: Конфигурация определяет параметры данных, модели и обучения; | false | true | false | |
11,674 | 2026-02-24T10:32:36.026000Z | 2026-02-24T10:32:36.026000Z | Lec. | Обучение организовано через модульную систему, включающую: | false | true | false | |
11,673 | 2026-02-24T10:32:34.287000Z | 2026-02-24T10:32:34.287000Z | Lec. | Архитектура обучения | false | false | false | |
11,672 | 2026-02-24T10:32:32.645000Z | 2026-02-24T10:32:32.645000Z | Lec. | Обучение моделей | false | true | false | |
11,671 | 2026-02-24T10:32:31.156000Z | 2026-02-24T10:32:31.156000Z | Lec. | Краткое описание программы:. программа получает на вход путь к папке с Verilog файлами схем;. преобразует в эмбеддинг;. в итоге получится папка с txt файлами, в которых будут лежать схемы в виде набора эмбеддингов | false | true | false | |
11,670 | 2026-02-24T10:32:29.532000Z | 2026-02-24T10:32:29.532000Z | Lec. | После получения графа , файлы должны быть представлены в таком виде, чтобы работать с машинными методами, для этого была написана программа Node2Vec, которая выполняла данную задачу | false | true | false | |
11,669 | 2026-02-24T10:32:27.211000Z | 2026-02-24T10:32:27.211000Z | Lec. | Этот код объединяет Graphs_generation и getting_from_json_fin | false | true | false | |
11,668 | 2026-02-24T10:32:25.688000Z | 2026-02-24T10:32:25.688000Z | Lec. | Так как разработка идет поэтапно, то все подпрограммы разрабатывались поэтапно, по итогу создали full_coll_with_node_to_vec_fin | false | true | false | |
11,667 | 2026-02-24T10:32:23.939000Z | 2026-02-24T10:32:23.939000Z | Lec. | Ее устройство:. программа получает на вход путь к папке с Verilog файлами схем;. преобразовывает их в граф;. на выходе получаем папка с graphml файлами, в которых будут лежать схемы в виде графов. full_coll_with_node_to_vec_fin | false | false | false | |
11,666 | 2026-02-24T10:32:22.029000Z | 2026-02-24T10:32:22.029000Z | Lec. | Для графового представления была реализована программа | false | true | false | |
11,665 | 2026-02-24T10:32:19.973000Z | 2026-02-24T10:32:19.973000Z | Lec. | Так была разработана графовая нейронная сеть, которая обучалась на данных, виде графа | false | false | false | |
11,664 | 2026-02-24T10:32:17.939000Z | 2026-02-24T10:32:17.939000Z | Lec. | Цифровые схемы система, которую удобно представлять в виде графа | false | true | false | |
11,663 | 2026-02-24T10:32:16.325000Z | 2026-02-24T10:32:16.325000Z | Lec. | Graphs_generation | false | false | false | |
11,662 | 2026-02-24T10:32:14.622000Z | 2026-02-24T10:32:14.622000Z | Lec. | Выходные параметры:. output_path ("models/another_model.pth"): Путь для сохранения обученной модели. experiment_name: Название эксперимента с меткой времени и типом модели | false | true | false | |
11,661 | 2026-02-24T10:32:12.939000Z | 2026-02-24T10:32:12.939000Z | Lec. | Обучение модели:. trainer_class ("TransformerTrainer"): Архитектура на основе трансформера. learning_rate (0.001): Скорость обучения оптимизатора. device ("cuda"): Использование GPU для ускорения вычислений. criterion ("MAPE_loss"): Функция потерь — средняя абсолютная процентная ошибка. additional_params:. in_channels (-1): Автоматический расчет входных каналов. hidden_channels (32): Размер скрытого слоя. num_heads (6): Число голов внимания в механизме self-attention. dropout (0.1): Вероятность отключения нейронов для регуляризации | false | false | false | |
11,660 | 2026-02-24T10:32:10.970000Z | 2026-02-24T10:32:10.970000Z | Lec. | Загрузка данных:. data_loader_class ("GraphMLDataLoader"): Класс для чтения данных из GraphML. data_path: Путь к датасету, включая схемы с ошибками. batch_size (2): Количество схем в одном батче. encoder ("One-hot-encoder"): Метод кодирования категориальных признаков. shuffle (true): Перемешивание данных перед обучением. val_size (0.2): Доля данных (20%) для валидации. n_workers (20): Число процессов для параллельной загрузки данных. use_scaler (false): Нормализация данных отключена | false | false | false | |
11,659 | 2026-02-24T10:32:08.513000Z | 2026-02-24T10:32:08.513000Z | Lec. | Парсинг данных:. parser_class ("GraphMLParser"): Используется для обработки файлов в формате GraphML. target ("delay"): Целевой параметр для предсказания (задержка схемы) | false | true | false | |
11,658 | 2026-02-24T10:32:06.801000Z | 2026-02-24T10:32:06.801000Z | Lec. | Общие настройки:. random_seed (21): Фиксирует случайные числа для воспроизводимости экспериментов. test_or_train ("Train"): Режим работы — обучение модели | false | false | false | |
11,657 | 2026-02-24T10:32:05.062000Z | 2026-02-24T10:32:05.062000Z | Lec. | Описание параметров: | false | true | false | |
11,656 | 2026-02-24T10:32:02.928000Z | 2026-02-24T10:32:02.928000Z | Lec. | Файл позволяет гибко настраивать эксперименты — от выбора данных и методов их обработки до архитектуры модели и параметров обучения.; | false | true | false | |
11,655 | 2026-02-24T10:32:01.182000Z | 2026-02-24T10:32:01.182000Z | Lec. | Конфигурационный файл JSON | false | true | false | |
11,654 | 2026-02-24T10:31:59.564000Z | 2026-02-24T10:31:59.564000Z | Lec. | Были разработаны модули Dataloder, Parser, Encoder (все являются частью репозитория CircuitGen_AI в ветке New_Pipeline) | false | true | false | |
11,653 | 2026-02-24T10:31:57.683000Z | 2026-02-24T10:31:57.683000Z | Lec. | Их необходимо собрать в единую базу | false | true | false | |
11,652 | 2026-02-24T10:31:56.011000Z | 2026-02-24T10:31:56.011000Z | Lec. | Последний представляет собой структурированные данные о схеме в формате JSON | false | true | false | |
11,651 | 2026-02-24T10:31:54.231000Z | 2026-02-24T10:31:54.231000Z | Lec. | Полученный датасет представляет собой Verilog, GraphML и JSON [Описание] файлы | false | true | false | |
11,650 | 2026-02-24T10:31:52.105000Z | 2026-02-24T10:31:52.105000Z | Lec. | В этих схемах уже посчитаны параметры площадь и задержка, они вычислены стандартными алгоритмами, именно эти параметры будет предсказывать программа | false | true | false | |
11,649 | 2026-02-24T10:31:50.463000Z | 2026-02-24T10:31:50.463000Z | Lec. | Так для этого будем использовать датасет, который представляет собой цифровые, они сгенерированы при помощи генератора схем (разработан проектом 1289 и 1290) | false | true | false | |
11,648 | 2026-02-24T10:31:48.379000Z | 2026-02-24T10:31:48.379000Z | Lec. | Для разработки моделей необходимы данные, на которых будет происходить обучение и тренировка полученной модели | false | true | false | |
11,647 | 2026-02-24T10:31:46.580000Z | 2026-02-24T10:31:46.580000Z | Lec. | Данные для обучения моделей | false | true | false | |
11,646 | 2026-02-24T10:31:45.115000Z | 2026-02-24T10:31:45.115000Z | Lec. | Это может значительно повысить эффективность процесса проектирования, обеспечивая оптимальные характеристики при меньших затратах времени и усилий | false | true | false | |
11,645 | 2026-02-24T10:31:43.384000Z | 2026-02-24T10:31:43.384000Z | Lec. | Оно позволяет на ранних этапах прогнозировать характеристики синтезируемых схем, а также направлять применение методов преобразования для улучшения результатов | false | true | false | |
11,644 | 2026-02-24T10:31:41.762000Z | 2026-02-24T10:31:41.762000Z | Lec. | Машинное обучение предлагает решение этой проблемы | false | true | false | |
11,643 | 2026-02-24T10:31:39.680000Z | 2026-02-24T10:31:39.680000Z | Lec. | Однако этот процесс трудоемкий и может занять много времени | false | true | false | |
11,642 | 2026-02-24T10:31:38.127000Z | 2026-02-24T10:31:38.127000Z | Lec. | Традиционно для достижения наилучшего результата используются многократные итерации синтеза | false | true | false | |
11,641 | 2026-02-24T10:31:36.393000Z | 2026-02-24T10:31:36.393000Z | Lec. | Для оптимизации синтеза необходимо учитывать множество настроек | false | true | false | |
11,640 | 2026-02-24T10:31:34.639000Z | 2026-02-24T10:31:34.639000Z | Lec. | Эти методы влияют на эффективность синтеза, определяя качество конечного аппаратного средства, включая его производительность, энергопотребление и занимаемую площадь | false | true | false | |
11,639 | 2026-02-24T10:31:33.078000Z | 2026-02-24T10:31:33.078000Z | Lec. | Логический синтез включает использование различных методов, таких как преобразования, проверка эквивалентности и имитационное моделирование | false | true | false | |
11,638 | 2026-02-24T10:31:31.431000Z | 2026-02-24T10:31:31.431000Z | Lec. | Целью логического синтеза является создание схемы аппаратного средства на определенном уровне представления (базисе) на основе его поведения, описанного на языке описания аппаратных средств (например, Verilog или VHDL) | false | true | false | |
11,637 | 2026-02-24T10:31:29.778000Z | 2026-02-24T10:31:29.778000Z | Lec. | Логический синтез является ключевой частью процесса проектирования цифровой микроэлектронной аппаратуры | false | true | false | |
11,636 | 2026-02-24T10:31:27.875000Z | 2026-02-24T10:31:27.875000Z | Lec. | Экономическая эффективность | false | true | false | |
11,635 | 2026-02-24T10:31:26.098000Z | 2026-02-24T10:31:26.098000Z | Lec. | Стадия fine-tuning обязательна: Для регрессии необходимо дообучать линейную голову отдельно, так как контрастивная цель не ориентирована на конкретные предсказания | false | true | false | |
11,634 | 2026-02-24T10:31:24.483000Z | 2026-02-24T10:31:24.483000Z | Lec. | Зависимость от качества графов: Ошибки в структуре графа могут сильно повлиять на обучение | false | true | false | |
11,633 | 2026-02-24T10:31:22.914000Z | 2026-02-24T10:31:22.914000Z | Lec. | Сложность настройки: Выбор хороших аугментаций и температурного коэффициента в NT-Xent критичен | false | true | false | |
11,632 | 2026-02-24T10:31:21.377000Z | 2026-02-24T10:31:21.377000Z | Lec. | Недостатки подхода: | false | true | false | |
11,631 | 2026-02-24T10:31:19.462000Z | 2026-02-24T10:31:19.462000Z | Lec. | Интерпретируемость (в случае GAT): Attention-механизмы позволяют интерпретировать, какие части схемы наиболее важны для решения задачи | false | true | false | |
11,630 | 2026-02-24T10:31:17.816000Z | 2026-02-24T10:31:17.816000Z | Lec. | Работа с неразмеченными данными: Контрастивное обучение не требует лейблов, позволяя обучать мощные представления в режиме обучения без учителя | false | true | false | |
11,629 | 2026-02-24T10:31:16.252000Z | 2026-02-24T10:31:16.252000Z | Lec. | Обобщаемость: Контрастивное обучение помогает извлекать представления, пригодные для различных downstream-задач (включая регрессию) | false | true | false | |
11,628 | 2026-02-24T10:31:14.458000Z | 2026-02-24T10:31:14.458000Z | Lec. | Аугментации графа: выполняются дважды для каждого графа, создавая близкие пары графов | false | true | false | |
11,627 | 2026-02-24T10:31:12.883000Z | 2026-02-24T10:31:12.883000Z | Lec. | Функция потерь NT-Xent: вычисляется между парами положительных и отрицательных примеров в батче | false | true | false | |
11,626 | 2026-02-24T10:31:11.270000Z | 2026-02-24T10:31:11.270000Z | Lec. | Linear head: после обучения энкодер замораживается, а этот модуль используется для обучения на размеченных данных | false | true | false | |
11,625 | 2026-02-24T10:31:09.612000Z | 2026-02-24T10:31:09.612000Z | Lec. | Projection Head: улучшает свойства эмбеддингов для контрастивной задачи, отделяя обучаемое пространство от downstream-задачи | false | true | false | |
11,624 | 2026-02-24T10:31:07.880000Z | 2026-02-24T10:31:07.880000Z | Lec. | GCN/GAT энкодер: обучается через контрастивную задачу, преобразуя графы в фиксированные эмбеддинги | false | true | false | |
11,623 | 2026-02-24T10:31:06.342000Z | 2026-02-24T10:31:06.342000Z | Lec. | Архитектура включает следующие компоненты: | false | true | false | |
11,622 | 2026-02-24T10:31:04.868000Z | 2026-02-24T10:31:04.868000Z | Lec. | Такая архитектура позволяет отделить обучение модели для создания эмбеддинга от обучения модели для основной задачи, что повышает универсальность модели | false | true | false | |
11,621 | 2026-02-24T10:31:03.098000Z | 2026-02-24T10:31:03.098000Z | Lec. | MLP поверх эмбеддингов используется для регрессионных задач | false | true | false | |
11,620 | 2026-02-24T10:31:01.381000Z | 2026-02-24T10:31:01.381000Z | Lec. | Linear head: | false | true | false | |
11,619 | 2026-02-24T10:30:59.866000Z | 2026-02-24T10:30:59.866000Z | Lec. | Это позволяет формировать устойчивые и обобщаемые векторные представления графов, даже без необходимости в разметке | false | true | false | |
11,618 | 2026-02-24T10:30:58.301000Z | 2026-02-24T10:30:58.301000Z | Lec. | Функция потерь NT-Xent (Normalized Temperature-scaled Cross Entropy Loss) стимулирует модель приближать эмбеддинги похожих графов и отдалять непохожие | false | true | false | |
11,617 | 2026-02-24T10:30:56.652000Z | 2026-02-24T10:30:56.652000Z | Lec. | Используется два аугментированных представления одного графа, которые проходят через общий энкодер | false | true | false | |
11,616 | 2026-02-24T10:30:55.044000Z | 2026-02-24T10:30:55.044000Z | Lec. | Контрастивное обучение (NT-Xent): | false | true | false | |
11,615 | 2026-02-24T10:30:53.332000Z | 2026-02-24T10:30:53.332000Z | Lec. | Поддерживают работу с графами произвольной топологии и размера | false | true | false | |
11,614 | 2026-02-24T10:30:51.560000Z | 2026-02-24T10:30:51.560000Z | Lec. | GAT (Graph Attention Network) использует механизмы внимания, позволяя каждому узлу "взвешивать" вклад соседей и выявлять наиболее значимые связи | false | true | false | |
11,613 | 2026-02-24T10:30:49.792000Z | 2026-02-24T10:30:49.792000Z | Lec. | GCN (Graph Convolutional Network) агрегирует информацию от соседних узлов, эффективно захватывая локальные зависимости в графе | false | true | false | |
11,612 | 2026-02-24T10:30:48.241000Z | 2026-02-24T10:30:48.241000Z | Lec. | GCN/GAT-энкодеры: | false | true | false | |
11,611 | 2026-02-24T10:30:46.750000Z | 2026-02-24T10:30:46.750000Z | Lec. | Он особенно эффективен для извлечения информативных эмбеддингов из сложных графовых структур, таких как цифровые схемы, и последующего предсказания значений на их основе | false | true | false | |
11,610 | 2026-02-24T10:30:45.190000Z | 2026-02-24T10:30:45.190000Z | Lec. | Данный подход сочетает графовые нейронные сети (GCN или GAT), контрастивное обучение в духе SimCLR/NT-Xent, а также простую линейную надстройку для решения задач регрессии | false | true | false | |
11,609 | 2026-02-24T10:30:43.406000Z | 2026-02-24T10:30:43.406000Z | Lec. | Зависимость от данных: Для стабильной работы необходимы большие объемы размеченных данных | false | true | false | |
11,608 | 2026-02-24T10:30:41.663000Z | 2026-02-24T10:30:41.663000Z | Lec. | Настройка гиперпараметров: Большое количество слоев и параметров усложняет оптимизацию | false | true | false |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.