Datasets:
File size: 12,602 Bytes
f30f4e0 dfa80f7 f30f4e0 dfa80f7 f30f4e0 8a57d6a f30f4e0 8a57d6a dfa80f7 8a57d6a f30f4e0 3c1d352 f30f4e0 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a 9514cc6 3f0cd4a |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 |
---
dataset_info:
features:
- name: instruction
dtype: string
- name: inputs
struct:
- name: image
dtype:
image:
decode: false
- name: question
dtype: string
- name: outputs
dtype: string
- name: meta
struct:
- name: id
dtype: int32
- name: question_type
dtype: string
- name: image
struct:
- name: synt_source
sequence: string
- name: type
sequence: string
splits:
- name: shots
num_bytes: 1393593
num_examples: 10
- name: test
num_bytes: 131749624
num_examples: 1148
download_size: 131923460
dataset_size: 133143217
configs:
- config_name: default
data_files:
- split: shots
path: data/shots-*
- split: test
path: data/test-*
license: cc-by-4.0
task_categories:
- visual-question-answering
language:
- ru
pretty_name: ruCLEVR
size_categories:
- 1K<n<10K
---
## ruCLEVR
## Описание задачи
RuCLEVR — это датасет для задачи визуального вопросно-ответного ризонинга (Visual Question Answering, VQA), созданный по методологии [CLEVR](https://cs.stanford.edu/people/jcjohns/clevr/), адаптированной для русского языка.
RuCLEVR состоит из автоматически сгенерированных изображений 3D-объектов, каждый из которых характеризуется такими признаками, как форма, размер, цвет и материал, расположенных в различных условиях и образующих сложное визуальное окружение. Набор данных включает вопросы, основанные на этих изображениях и разбитые на определенные группы, такие как запрос атрибутов, сравнение атрибутов, существование, подсчет и целочисленное сравнение. Для создания вопросов использованы предопределённые шаблоны, что позволяет обеспечить последовательность и разнообразие. Датасет был создан с нуля, чтобы избежать предвзятости модели. Вопросы предназначены для оценки способности моделей выполнять задачи, требующие точного визуального рассуждения, анализируя признаки и отношения объектов в каждой сцене. Благодаря такому структурированному дизайну датасет обеспечивает контролируемую среду для оценки навыков точного рассуждения моделей при работе с визуальными данными.
Тестируемые навыки моделей: Spatial object relationship, Physical property understanding, Object recognition, Object localization, Spatial object relationship, Static counting
Авторы: Ксения Бирюкова, Дарья Челонокова, Джамиля Эркенова, Артем Червяков, Мария Тихонова
## Мотивация
Датасет RuCLEVR был создан для оценки возможностей визуальных рассуждений мультимодальных языковых моделей, в частности на русском языке, где не хватает диагностических датасетов для таких задач. Его цель — оценить способность моделей рассуждать о формах, цветах, количествах и пространственных отношениях в визуальных сценах, выходя за рамки базового понимания языка и проверяя способности моделей к комплексным рассуждениям. Данный навык необходим моделям, которые, как ожидается, будут анализировать визуальные данные и выполнять задачи, требующие логических выводов о взаимодействии объектов. Дизайн датасета, в котором используются структурированные семейства вопросов, обеспечивает всестороннюю и непредвзятую оценку, сосредоточенную на навыках рассуждения моделей, а не на распознавании паттернов.
## Описание датасета
### Поля данных
Каждый вопрос в датасете содержит следующие поля:
- `instruction` [str] — Промпт-инструкция для модели, содержащая шаблон для вставки элементов вопроса.
- `inputs` — Вводные данные, формирующие задание для модели.
- `image` [str] — Путь к файлу с изображением, к которому относится вопрос.
- `question` [str] — Текст вопроса.
- `outputs` [str] — Правильный ответ на вопрос.
- `meta` — Метаданные, относящиеся к тестовому примеру, но не используемые в вопросе (скрытые от тестируемой модели).
- `id` [int] — Номер-идентификатор вопроса в датасете.
- `question_type` [str] — Тип вопроса в зависимости от возможных ответов: бинарный, цвета, количество, материалы, формы, размер.
- `image` — Метаданные, относящиеся к изображению.
- `synt_source` [list] — Источники, с помощью которых сгенерированы или воссозданы данные для формирования вопроса, в том числе названия генеративных моделей.
- `type` [list] — Тип изображения — согласно классификации изображений для датасетов MERA.
### Пример данных
```json
{
"instruction": "Изображение:\n<image>\nНа этом изображении показаны различные геометрические объекты со своей формой, цветом и расположением друг относительно друга.\nВопрос: {question}\nЭтот вопрос касается объектов на изображении. Ответь на вопрос одним словом, употребив начальную форму этого слова, или числом, используя цифры для его записи.\nОтвет:",
"inputs": {
"image": "samples/image0007.png",
"question": "Есть ли еще какие-нибудь предметы такой же формы, как и большой металлический предмет?"
},
"outputs": "нет",
"meta": {
"id": 7,
"question_type": "binary",
"image": {
"synt_source": [
"blender"
],
"type": [
"generated"
]
}
}
}
```
### Создание датасета
Для создания RuCLEVR использовались два подхода: 1) генерация новых примеров и 2) аугментация данных с заменой цвета. Ниже каждый подход описан более подробно:
**Генерация новых примеров**: Были сгенерированы новые уникальные изображения и соответствующие вопросы с нуля. Этот процесс включал несколько этапов для обеспечения контролируемой и всесторонней оценки визуального рассуждения. Сначала автоматически генерировались 3D-изображения с использованием [Blender](https://www.blender.org/download/releases/2-78/) с изображением объектов с заданными свойствами, такими как форма, размер, цвет и материал. Эти объекты были размещены в различных конфигурациях для создания сложных сцен. Затем на основе заданных шаблонов были сгенерированы вопросы и ответы к ним. Чтобы избежать ошибок в грамматических формах (падежи, склонения), мы генерировали вопросы на английском языке, после чего перевели их на русский с помощью Google Translate. После генерации вопросы были отфильтрованы для выявления некорректных переводов с использованием модели [ruRoBERTa-large-rucola](https://huggingface.co/RussianNLP/ruRoBERTa-large-rucola), обученной для задачи лингвистической приемлемости. Кроме того, мы проверили датасет на отсутствие дубликатов.
**Аугментация данных с заменой цвета**: Нами были применены техники аугментации данных для повышения вариативности и сложности тестовой части с использованием разработанного [скрипта](https://github.com/erkenovaj/RuCLEVR/tree/main) для систематической замены цветов в вопросах и изображениях по заданным правилам. Аугментация изначально проводилась для сэмплов на английском языке, чтобы избежать морфологических сложностей. После аугментации вопросы были переведены на русский язык и проверены на грамматическую корректность.
Финально датасет был вручную проверен, некорректные примеры, появившиеся из-за автоматического способа генерации данных, были исключены.
## Оценка
### Метрики
Для агрегированной оценки ответов моделей используются следующие метрики:
- `Exact match`: Метрика Exact match вычисляет среднее по оценкам всех обработанных вопросов, где оценка имеет значение 1, если предсказанная строка точно совпадает с правильным ответом, и 0 в остальных случаях.
### Human baseline
Human baseline — это оценка усредненных ответов людей на вопросы бенчмарка. Оценка проводится по тем же метрикам, что и для моделей.
Для всех вопросов датасета были получены ответы разметчиков на crowd-source платформе с перекрытием 5. Ответы в свободной форме были нормализованы (регистр, пробелы) для сравнения с эталоном. Агрегированным ответом считался тот, который был выбран большинством (majority vote).
Результаты оценки:
- Exact match – 0.96 |