Datasets:
pretty_name: CRAG 3-sentences chunks v3
dataset_name: CRAG-3sentences-chunks-v3
language:
- id
license: apache-2.0
task_categories:
- question-answering
task_ids:
- open-domain-qa
tags:
- rag
- post-retrieval
- indonesia
configs:
- config_name: default
size_categories:
- 1K<n<10K
CRAG-3sentences-chunks-v3
Dataset Summary
Dataset ini berisi potongan (chunk) 3 kalimat untuk tiap passage hasil pascapengambilan (CRAG)
yang telah diolah dari khalidrizki/postretrieve-raw-dataset-v2. Tujuan utamanya adalah evaluasi RAG berbahasa Indonesia pada tugas QA. Dataset ini mirip dengan CRAG-3sentences-chunks-v2, tetapi dataset tersebut telah menghapus sekuens karakter yang menyusun sitasi (tanda kurung buka, angka, dan tanda kurung tutup). Di lain sisi, dataset ini menyertakan sekuens karakter tersebut. Hal ini dilakukan karena model RECOMP dan xRAG versi bahasa Indonesia telah di-finetune pada dataset yang menyertakan sekuens sitasi pula. Untuk menyamakan playing field dengan kedua model tersebut, maka dataset untuk pengujian CRAG pun juga harus memiliki format yang sama.
Supported Tasks and Leaderboards
- Question Answering (Open-domain QA) – cocok untuk eksperimen RAG (retrieval + generation).
Languages
- Indonesian (id)
Data Fields
query(string): pertanyaan.query_id(string): id daricastorini/mr-tydi, dataset original sumber pertanyaan-jawaban.tydiqa_id(string): id darikhalidalt/tydiqa-goldp, dataset original sumber pertanyaan-dokumen.label(string): label jawaban.passages(list[string]): daftar passages original, kolom ini kemudian diolah menjadiranked_truncPassages_with_labelsranked_truncPassages_with_labels(list[dict]): passages yang sudah dipotong agar menjadi 512 token menurut Flan T5 Base. Format berupa(text, is_positive, score).ranked_chunks_with_labels(list[dict]): chunks yang sudah diurutkan menggunakan model Multilingual E5 Small
Data Splits
train: 5120dev: 565test: 565
Source and Processing
- Sumber awal:
khalidrizki/postretrieve-raw-dataset-v2. - Proses: chunking 3-kalimat, perangkingan ulang chunks, dan filtering untuk menyisakan 3 chunks paling relevan untuk tiap query.