id
int64
18
21.1k
created_at
timestamp[ns, tz=UTC]date
2026-02-23 07:30:20
2026-02-24 16:54:39
updated_at
timestamp[ns, tz=UTC]date
2026-02-23 08:08:14
2026-02-24 16:54:39
doc_name
stringclasses
1 value
input
stringlengths
11
9.24k
output
stringlengths
0
738
is_personal
bool
2 classes
is_sentence
bool
2 classes
is_corrected
bool
2 classes
13,107
2026-02-24T11:15:36.802000Z
2026-02-24T11:15:36.802000Z
Lec.
How many floors this building has?. 5
false
true
false
13,106
2026-02-24T11:15:35.158000Z
2026-02-24T11:15:35.158000Z
Lec.
How many floors this building has?. 1
false
true
false
13,105
2026-02-24T11:15:33.723000Z
2026-02-24T11:15:33.723000Z
Lec.
How many floors this building has?. 3
false
true
false
13,104
2026-02-24T11:15:32.055000Z
2026-02-24T11:15:32.055000Z
Lec.
How many floors this building has?. 10
false
true
false
13,103
2026-02-24T11:15:30.393000Z
2026-02-24T11:15:30.393000Z
Lec.
Residential
false
true
false
13,102
2026-02-24T11:15:28.731000Z
2026-02-24T11:15:28.731000Z
Lec.
What is type of the building?
false
true
false
13,101
2026-02-24T11:15:27.143000Z
2026-02-24T11:15:27.143000Z
Lec.
Примеры результатов работы нейронной сети
false
false
false
13,100
2026-02-24T11:15:25.160000Z
2026-02-24T11:15:25.160000Z
Lec.
Пример кода размещен в приложении Б
false
true
false
13,099
2026-02-24T11:15:23.188000Z
2026-02-24T11:15:23.188000Z
Lec.
Для получения информации об объектах датасета небольшая выборка из него была предварительно обрезана, а также развёрнута сама нейронная сеть на Google Colab
false
true
false
13,098
2026-02-24T11:15:21.581000Z
2026-02-24T11:15:21.581000Z
Lec.
Её способность обрабатывать изображения высокого разрешения позволяет сохранять и анализировать мелкие особенности элементов зданий, как показано в таблице 6
false
true
false
13,097
2026-02-24T11:15:19.836000Z
2026-02-24T11:15:19.836000Z
Lec.
Для исследовательских задач, требующих глубокого понимания архитектурных нюансов, Paligemma предоставляет более богатые возможности интерпретации и анализа
false
true
false
13,096
2026-02-24T11:15:18.078000Z
2026-02-24T11:15:18.078000Z
Lec.
Задачах, требующих базового понимания взаимосвязи между текстом и изображением
false
true
false
13,095
2026-02-24T11:15:15.815000Z
2026-02-24T11:15:15.815000Z
Lec.
Эффективности использования вычислительных ресурсов
false
true
false
13,094
2026-02-24T11:15:14.120000Z
2026-02-24T11:15:14.120000Z
Lec.
Скорости обработки (в 3.5 раза быстрее Paligemma)
false
true
false
13,093
2026-02-24T11:15:11.966000Z
2026-02-24T11:15:11.966000Z
Lec.
ViLT, однако, показывает преимущества в:
false
true
false
13,092
2026-02-24T11:15:10.461000Z
2026-02-24T11:15:10.461000Z
Lec.
Генерации подробных текстовых описаний архитектурных особенностей
false
true
false
13,091
2026-02-24T11:15:08.683000Z
2026-02-24T11:15:08.683000Z
Lec.
Идентификации структурных элементов зданий (точность 83% против 69%)
false
true
false
13,090
2026-02-24T11:15:06.915000Z
2026-02-24T11:15:06.915000Z
Lec.
Детальной классификации архитектурных стилей (точность 87% против 72% у ViLT)
false
true
false
13,089
2026-02-24T11:15:05.045000Z
2026-02-24T11:15:05.045000Z
Lec.
При анализе архитектурных изображений Paligemma демонстрирует превосходство в задачах:
false
true
false
13,088
2026-02-24T11:15:03.494000Z
2026-02-24T11:15:03.494000Z
Lec.
Модель обрабатывает изображения с меньшим разрешением (224×224), но демонстрирует более высокую вычислительную эффективность
false
true
false
13,087
2026-02-24T11:15:01.738000Z
2026-02-24T11:15:01.738000Z
Lec.
ViLT (Vision-and-Language Transformer) применяет более легковесный подход, используя единый трансформер с токенизацией как для текста, так и для патчей изображений [99]
false
true
false
13,086
2026-02-24T11:14:59.978000Z
2026-02-24T11:14:59.978000Z
Lec.
Модель базируется на Gemma и PaLI-X, что обеспечивает ей значительную вычислительную мощность при обработке высококачественных изображений зданий с разрешением до 896×896 пикселей
false
true
false
13,085
2026-02-24T11:14:58.194000Z
2026-02-24T11:14:58.194000Z
Lec.
Paligemma выпущена компанией Google в 2024 году и использует трансформерную архитектуру с раздельными энкодерами для изображений и текста, объединяемыми через механизм кросс-модальной аттенции [98]
false
true
false
13,084
2026-02-24T11:14:56.317000Z
2026-02-24T11:14:56.317000Z
Lec.
Для проведения анализа были выбраны две модели - Paligemma и ViLT
false
true
false
13,083
2026-02-24T11:14:54.722000Z
2026-02-24T11:14:54.722000Z
Lec.
Они умеют объединять визуальные признаки зданий с их текстовыми описаниями, способны интерпретировать архитектурные элементы с учетом их функционального и исторического контекста, а также позволяют выполнять трансферное обучение - перенос знаний, полученных на общих данных, на специфические архитектурные задачи
false
true
false
13,082
2026-02-24T11:14:52.728000Z
2026-02-24T11:14:52.728000Z
Lec.
Современные VLM обладают рядом ключевых характеристик, делающих их применимыми для задач архитектурного анализа
false
true
false
13,081
2026-02-24T11:14:51.083000Z
2026-02-24T11:14:51.083000Z
Lec.
В контексте анализа архитектурных изображений эти модели демонстрируют значительный потенциал для автоматической идентификации стилистических особенностей, структурных элементов и семантического содержания зданий
false
true
false
13,080
2026-02-24T11:14:49.052000Z
2026-02-24T11:14:49.052000Z
Lec.
Визуально-языковые модели (VLM) представляют собой класс мультимодальных систем, способных обрабатывать и интерпретировать как визуальную, так и текстовую информацию
false
true
false
13,079
2026-02-24T11:14:47.291000Z
2026-02-24T11:14:47.291000Z
Lec.
В данном случае лучшими по всем метрикам показали себя модели VGG19, VGG16, размером более 100 миллионов параметров, и MobileNetV3, размером около 5 миллионов параметров, превзошедшая все остальные модели кроме VGG19 и VGG16 по всем метрикам
false
true
false
13,078
2026-02-24T11:14:45.689000Z
2026-02-24T11:14:45.689000Z
Lec.
Результаты снова демонстрируют, что качество модели не всегда зависит от её размера
false
true
false
13,077
2026-02-24T11:14:43.948000Z
2026-02-24T11:14:43.948000Z
Lec.
Результаты обучения классификаторов
false
true
false
13,076
2026-02-24T11:14:42.271000Z
2026-02-24T11:14:42.271000Z
Lec.
Итоги обучения представлены в графиках на рисунке 35
false
true
false
13,075
2026-02-24T11:14:40.627000Z
2026-02-24T11:14:40.627000Z
Lec.
В качестве метрик были выбраны ранее упомянутые accuracy или точность, полнота (recall), и ROC AUC [97] как основная метрика качества, отражающая вероятность верного предсказания моделью
false
true
false
13,074
2026-02-24T11:14:39.032000Z
2026-02-24T11:14:39.032000Z
Lec.
После описанных изменений данных, было произведено обучение моделей с параметрами: learning rate равным 0.0001, размер батча в 64 изображения, количество эпох обучения 20, размер изображения 224 на 224 пикселя для всех моделей кроме InceptionV3, куда подавалось изображение размером 299 на 299 пикселей из-за особенностей архитектуры модели
false
true
false
13,073
2026-02-24T11:14:37.458000Z
2026-02-24T11:14:37.458000Z
Lec.
Тренировочная часть датасета после удаления части изображений
false
true
false
13,072
2026-02-24T11:14:35.811000Z
2026-02-24T11:14:35.811000Z
Lec.
Тренировочная часть датасета
false
true
false
13,071
2026-02-24T11:14:34.278000Z
2026-02-24T11:14:34.278000Z
Lec.
Дополнительно было произведено уменьшение числа изображений для выравнивания количества изображений по классам, статистика тренировочной части датасета приведена на рисунке 33, статистика тренировочной части после удаления части изображений приведена на рисунке 34
false
true
false
13,070
2026-02-24T11:14:32.683000Z
2026-02-24T11:14:32.683000Z
Lec.
Аналогично процессу обучения моделей детекции, из датасета были вырезаны метки менее 1 процента площади изображения
false
true
false
13,069
2026-02-24T11:14:31.050000Z
2026-02-24T11:14:31.050000Z
Lec.
Для создания методов обучения моделей применялась библиотека PyTorch [96]
false
true
false
13,068
2026-02-24T11:14:29.101000Z
2026-02-24T11:14:29.101000Z
Lec.
Для обработки датасета, вырезания оттуда объектов и формирования датасета классификации, обучения и валидации моделей, визуализации результатов был написан ряд методов [95]
false
true
false
13,067
2026-02-24T11:14:27.432000Z
2026-02-24T11:14:27.432000Z
Lec.
В качестве данных для классификатора подавались вырезанные с датасета объекты с соответствующими им метками классов, то есть предполагается возможное использование модели классификатора в связке с моделью детектором, которая, в отличие от приведенных в данном исследовании, не будет определять класс объекта, а только границы, в которых он находится
false
true
false
13,066
2026-02-24T11:14:25.752000Z
2026-02-24T11:14:25.752000Z
Lec.
DenseNet161. 28,7
false
false
false
13,065
2026-02-24T11:14:24.133000Z
2026-02-24T11:14:24.133000Z
Lec.
ResNet152. 60,2
false
false
false
13,064
2026-02-24T11:14:22.489000Z
2026-02-24T11:14:22.489000Z
Lec.
InceptionV3. 23,8
false
false
false
13,063
2026-02-24T11:14:20.799000Z
2026-02-24T11:14:20.799000Z
Lec.
EfficientNetB3. 12
false
false
false
13,062
2026-02-24T11:14:19.258000Z
2026-02-24T11:14:19.258000Z
Lec.
MobileNetV3. 5,4
false
false
false
13,061
2026-02-24T11:14:17.567000Z
2026-02-24T11:14:17.567000Z
Lec.
Продолжение таблицы 3
false
true
false
13,060
2026-02-24T11:14:15.940000Z
2026-02-24T11:14:15.940000Z
Lec.
Размеры моделей классификации
false
true
false
13,059
2026-02-24T11:14:14.083000Z
2026-02-24T11:14:14.083000Z
Lec.
Данные о числе параметров моделей приведены в таблице 5
false
true
false
13,058
2026-02-24T11:14:12.508000Z
2026-02-24T11:14:12.508000Z
Lec.
Были выбраны модели: VGG16 [88], VGG19 [89], MobileNetV3 [90], EfficientNetB3 [91], InceptionV3 [92], Resnet152 [93], DenseNet161 [94]
false
false
false
13,057
2026-02-24T11:14:10.873000Z
2026-02-24T11:14:10.873000Z
Lec.
Помимо моделей детекции, в рамках дополнительного эксперимента было произведено исследование популярных моделей классификации различных архитектур
false
true
false
13,056
2026-02-24T11:14:09.120000Z
2026-02-24T11:14:09.120000Z
Lec.
Несмотря на то, что высоких показателей не было достигнуто из-за малого числа данных, данные модели при достижении mAP около 0.45 значительно ускоряли процесс разметки данных
false
true
false
13,055
2026-02-24T11:14:07.376000Z
2026-02-24T11:14:07.376000Z
Lec.
Дополнительно стоит упомянуть, что для ускорения разметки датасета на различных его ранних версиях обучались модели RF-DETR-Base, YOLOv11s, YOLOv8m
false
true
false
13,054
2026-02-24T11:14:05.523000Z
2026-02-24T11:14:05.523000Z
Lec.
RF-DETR-Large, размер 129 миллионов параметров, mAP 0.663
false
false
false
13,053
2026-02-24T11:14:03.724000Z
2026-02-24T11:14:03.724000Z
Lec.
RF-DETR-Base, размер 29 миллионов параметров, mAP 0.643;
false
false
false
13,052
2026-02-24T11:14:01.973000Z
2026-02-24T11:14:01.973000Z
Lec.
YOLOv11s, размер 9 миллионов параметров, mAP 0.567;
false
false
false
13,051
2026-02-24T11:14:00.126000Z
2026-02-24T11:14:00.126000Z
Lec.
Лучшие три модели детекции определены:
false
true
false
13,050
2026-02-24T11:13:58.619000Z
2026-02-24T11:13:58.619000Z
Lec.
Как можно увидеть из приведенных данных на рисунках и в таблице, качество на наших данных не всегда пропорционально размеру модели для линейки YOLO
false
true
false
13,049
2026-02-24T11:13:57.025000Z
2026-02-24T11:13:57.025000Z
Lec.
Модель. mAP50. yolov10x. 0,55847. yolov8x. 0,55073. yolov10l. 0,55063. yolo12l. 0,54963. yolov10m. 0,54933. yolo12x. 0,54882. yolo11l. 0,54843. yolov8m. 0,54544. yolo11m. 0,54532. yolo12s. 0,54484. yolo11x. 0,54155. yolov8s. 0,53767
false
false
false
13,048
2026-02-24T11:13:55.125000Z
2026-02-24T11:13:55.125000Z
Lec.
Продолжение таблицы 2
false
true
false
13,047
2026-02-24T11:13:53.486000Z
2026-02-24T11:13:53.486000Z
Lec.
RF-DETR-Base. 0,64283. yolo11s. 0,56628. yolov10s. 0,56356. yolov8l. 0,5626. yolo12m. 0,55943
false
false
false
13,046
2026-02-24T11:13:51.764000Z
2026-02-24T11:13:51.764000Z
Lec.
RF-DETR-Large. 0,66255
false
false
false
13,045
2026-02-24T11:13:50.243000Z
2026-02-24T11:13:50.243000Z
Lec.
Модель. mAP50
false
true
false
13,044
2026-02-24T11:13:48.523000Z
2026-02-24T11:13:48.523000Z
Lec.
Итоговое сравнение моделей детекции
false
true
false
13,043
2026-02-24T11:13:47.034000Z
2026-02-24T11:13:47.034000Z
Lec.
Результаты обучения RF-DETR-Large
false
false
false
13,042
2026-02-24T11:13:45.288000Z
2026-02-24T11:13:45.288000Z
Lec.
Результаты обучения RF-DETR-Base
false
true
false
13,041
2026-02-24T11:13:43.560000Z
2026-02-24T11:13:43.560000Z
Lec.
Программа обучения, предложенная создателями модели и частично измененная для данного исследования, доступна публично [87]
false
true
false
13,040
2026-02-24T11:13:41.268000Z
2026-02-24T11:13:41.268000Z
Lec.
Результаты обучения версий RF-DETR размера Base и Large показано на рисунках 31 и 32 соответственно, общее сравнение результатов обучения представлено в таблице 4
false
true
false
13,039
2026-02-24T11:13:39.608000Z
2026-02-24T11:13:39.608000Z
Lec.
Сравнение версий YOLO
false
true
false
13,038
2026-02-24T11:13:37.662000Z
2026-02-24T11:13:37.662000Z
Lec.
Для облегчения восприятия к графикам применено гауссово сглаживание, которое не искажает итоги обучения, но делает линии более плавными, позволяя качественно оценить общие тенденции обучения моделей
false
true
false
13,037
2026-02-24T11:13:35.872000Z
2026-02-24T11:13:35.872000Z
Lec.
Сравнение версий YOLO представлено на рисунке 30
false
true
false
13,036
2026-02-24T11:13:34.239000Z
2026-02-24T11:13:34.239000Z
Lec.
Для сравнения версий YOLO используются такие ранее упомянутые метрики как точность (precision), являющаяся отношением истинных меток класса к сумме истинных с ложными метками класса, полнота (recall), являющаяся отношением истинных меток класса к сумме истинных меток класса с ложно-ошибочными, и потеря по классу (loss)
false
true
false
13,035
2026-02-24T11:13:32.417000Z
2026-02-24T11:13:32.417000Z
Lec.
Данная метрика вычисляется для одинакового выбранного диапазона метрики пересечения к объединению, intersection over union (IoU), отражающей соответствие границ предсказанной метки к реальной
false
true
false
13,034
2026-02-24T11:13:30.474000Z
2026-02-24T11:13:30.474000Z
Lec.
Дополнительно применяется mean average precision (mAP), являющаяся средним показателем AP для всех классов, однако в нашем случае AP и mAP являются одной и той же метрикой, поскольку вычисляются одинаково
false
true
false
13,033
2026-02-24T11:13:28.888000Z
2026-02-24T11:13:28.888000Z
Lec.
Основной метрикой сравнения моделей, выбрана average precision (AP), являющаяся площадью под кривой сопоставления точности с полнотой (precision и recall соответственно), фактически являющейся суммирующим показателем качества предсказаний модели
true
true
false
13,032
2026-02-24T11:13:26.955000Z
2026-02-24T11:13:26.955000Z
Lec.
Метод сохранения информации обучения на Google Drive для RF-DETR
false
true
false
13,031
2026-02-24T11:13:24.614000Z
2026-02-24T11:13:24.614000Z
Lec.
Метод сохранения информации обучения на Google Drive для YOLO
false
true
false
13,030
2026-02-24T11:13:22.502000Z
2026-02-24T11:13:22.502000Z
Lec.
Для сохранения результатов обучения всех моделей в онлайн-хранилище Google Drive были написаны компактные методы, показанные на рисунке 28 и рисунке 29 для YOLO и RF-DETR моделей соответственно, а также для визуализации результатов обучения был создан ряд методов, извлекающий данные из файлов с информацией об обучении и полученных метриках, созданные методы представлены в блокноте [86], где возможно просмотреть весь процесс визуализации данных обученных моделей и сборки таблицы метрик
false
true
false
13,029
2026-02-24T11:13:20.471000Z
2026-02-24T11:13:20.471000Z
Lec.
В качестве обучающих данных была выбрана последняя версия датасета, опубликованная в сервисе Roboflow [72], содержащая более 6600 размеченных изображений
false
true
false
13,028
2026-02-24T11:13:18.916000Z
2026-02-24T11:13:18.916000Z
Lec.
Для ускорения вычислений, а также возможности обучить особо крупные модели, были применены вычислительные блоки А100
false
true
false
13,027
2026-02-24T11:13:17.166000Z
2026-02-24T11:13:17.166000Z
Lec.
Для обучения RF-DETR моделей были подобраны параметры learning rate как 0.0001, как рекомендованный создателями, размер батча 16 изображений для малой модели и 8 для большой соответственно из-за ограничений в размере ОЗУ
false
true
false
13,026
2026-02-24T11:13:15.366000Z
2026-02-24T11:13:15.366000Z
Lec.
Методы обучения и предобработки данных доступны публично [76]
false
false
false
13,025
2026-02-24T11:13:13.511000Z
2026-02-24T11:13:13.511000Z
Lec.
Остальные гиперпараметры автоматически определяются с помощью методов библиотеки ultralytics [85], создателей YOLO, что значительно упрощает процесс из-за отсутствия необходимости подбора гиперпараметров
false
true
false
13,024
2026-02-24T11:13:11.917000Z
2026-02-24T11:13:11.917000Z
Lec.
Для обучения моделей YOLO, принятых к сравнению, был создан скрипт в Google Colab, экспериментальным путем выбрано число эпох 50, и размер батча 24 как максимально допустимый для больших моделей из-за ограничений ОЗУ
false
true
false
13,023
2026-02-24T11:13:09.944000Z
2026-02-24T11:13:09.944000Z
Lec.
RT-DETR-Large. 129,0
false
false
false
13,022
2026-02-24T11:13:08.338000Z
2026-02-24T11:13:08.338000Z
Lec.
RT-DETR-Base. 29,0
false
false
false
13,021
2026-02-24T11:13:06.832000Z
2026-02-24T11:13:06.832000Z
Lec.
YOLOv12-X. 59,1
false
false
false
13,020
2026-02-24T11:13:04.889000Z
2026-02-24T11:13:04.889000Z
Lec.
YOLOv12-L. 26,4
false
false
false
13,019
2026-02-24T11:13:03.176000Z
2026-02-24T11:13:03.176000Z
Lec.
YOLOv12-M. 20,2
false
false
false
13,018
2026-02-24T11:13:01.702000Z
2026-02-24T11:13:01.702000Z
Lec.
YOLOv12-S. 9,3
false
false
false
13,017
2026-02-24T11:12:59.994000Z
2026-02-24T11:12:59.994000Z
Lec.
YOLO11-X. 56,9
false
false
false
13,016
2026-02-24T11:12:58.286000Z
2026-02-24T11:12:58.286000Z
Lec.
YOLO11-L. 25,3
false
false
false
13,015
2026-02-24T11:12:56.813000Z
2026-02-24T11:12:56.813000Z
Lec.
YOLO11-M. 20,1
false
false
false
13,014
2026-02-24T11:12:55.323000Z
2026-02-24T11:12:55.323000Z
Lec.
YOLO11-S. 9,4
false
false
false
13,013
2026-02-24T11:12:53.611000Z
2026-02-24T11:12:53.611000Z
Lec.
YOLOv10-X. 29,5
false
false
false
13,012
2026-02-24T11:12:51.899000Z
2026-02-24T11:12:51.899000Z
Lec.
YOLOv10-L. 24,4
false
false
false
13,011
2026-02-24T11:12:50.191000Z
2026-02-24T11:12:50.191000Z
Lec.
YOLOv10-M. 15,4
false
false
false
13,010
2026-02-24T11:12:48.482000Z
2026-02-24T11:12:48.482000Z
Lec.
YOLOv10-S. 7,2
false
false
false
13,009
2026-02-24T11:12:46.772000Z
2026-02-24T11:12:46.772000Z
Lec.
YOLOv8-X. 68,2
false
false
false
13,008
2026-02-24T11:12:45.089000Z
2026-02-24T11:12:45.089000Z
Lec.
YOLOv8-L. 43,7
false
false
false