|
|
--- |
|
|
dataset_info: |
|
|
- config_name: filter-by-ppl-and-length |
|
|
features: |
|
|
- name: id |
|
|
dtype: string |
|
|
- name: revid |
|
|
dtype: string |
|
|
- name: url |
|
|
dtype: string |
|
|
- name: title |
|
|
dtype: string |
|
|
- name: text |
|
|
dtype: string |
|
|
- name: ppl |
|
|
dtype: float64 |
|
|
splits: |
|
|
- name: train |
|
|
num_bytes: 69827402 |
|
|
num_examples: 28269 |
|
|
download_size: 123289384 |
|
|
dataset_size: 69827402 |
|
|
- config_name: filtered-by-rule |
|
|
features: |
|
|
- name: id |
|
|
dtype: string |
|
|
- name: revid |
|
|
dtype: string |
|
|
- name: url |
|
|
dtype: string |
|
|
- name: title |
|
|
dtype: string |
|
|
- name: text |
|
|
dtype: string |
|
|
- name: ppl |
|
|
dtype: float64 |
|
|
splits: |
|
|
- name: train |
|
|
num_bytes: 480065023.4760376 |
|
|
num_examples: 459402 |
|
|
download_size: 555208649 |
|
|
dataset_size: 480065023.4760376 |
|
|
- config_name: mix-wikihow-wikipedia |
|
|
features: |
|
|
- name: text |
|
|
dtype: string |
|
|
splits: |
|
|
- name: train |
|
|
num_bytes: 2091623947 |
|
|
num_examples: 549399 |
|
|
download_size: 997843165 |
|
|
dataset_size: 2091623947 |
|
|
- config_name: ppl |
|
|
features: |
|
|
- name: id |
|
|
dtype: string |
|
|
- name: revid |
|
|
dtype: string |
|
|
- name: url |
|
|
dtype: string |
|
|
- name: title |
|
|
dtype: string |
|
|
- name: text |
|
|
dtype: string |
|
|
- name: ppl |
|
|
dtype: float64 |
|
|
splits: |
|
|
- name: train |
|
|
num_bytes: 1352753394 |
|
|
num_examples: 1294528 |
|
|
download_size: 602025839 |
|
|
dataset_size: 1352753394 |
|
|
- config_name: sample |
|
|
features: |
|
|
- name: id |
|
|
dtype: string |
|
|
- name: revid |
|
|
dtype: string |
|
|
- name: url |
|
|
dtype: string |
|
|
- name: title |
|
|
dtype: string |
|
|
- name: text |
|
|
dtype: string |
|
|
- name: ppl |
|
|
dtype: float64 |
|
|
splits: |
|
|
- name: train |
|
|
num_bytes: 181588953 |
|
|
num_examples: 20000 |
|
|
download_size: 91143497 |
|
|
dataset_size: 181588953 |
|
|
- config_name: tokenized_sample |
|
|
features: |
|
|
- name: input_ids |
|
|
list: int32 |
|
|
splits: |
|
|
- name: train |
|
|
num_bytes: 165928500 |
|
|
num_examples: 10125 |
|
|
download_size: 67984707 |
|
|
dataset_size: 165928500 |
|
|
- config_name: wiki-wikihow-vtv |
|
|
features: |
|
|
- name: text |
|
|
dtype: string |
|
|
splits: |
|
|
- name: train |
|
|
num_bytes: 2578683736 |
|
|
num_examples: 675647 |
|
|
download_size: 1282890988 |
|
|
dataset_size: 2578683736 |
|
|
- config_name: wikihow |
|
|
features: |
|
|
- name: url |
|
|
dtype: string |
|
|
- name: title |
|
|
dtype: string |
|
|
- name: text |
|
|
dtype: string |
|
|
- name: metadata |
|
|
struct: |
|
|
- name: is_expert |
|
|
dtype: bool |
|
|
- name: last_updated |
|
|
dtype: 'null' |
|
|
- name: num_votes |
|
|
dtype: 'null' |
|
|
- name: percent_helpful |
|
|
dtype: 'null' |
|
|
- name: tips |
|
|
list: 'null' |
|
|
- name: views |
|
|
dtype: 'null' |
|
|
splits: |
|
|
- name: train |
|
|
num_bytes: 1011384393 |
|
|
num_examples: 89997 |
|
|
download_size: 464040715 |
|
|
dataset_size: 1011384393 |
|
|
configs: |
|
|
- config_name: filter-by-ppl-and-length |
|
|
data_files: |
|
|
- split: train |
|
|
path: filter-by-ppl-and-length/train-* |
|
|
- config_name: filtered-by-rule |
|
|
data_files: |
|
|
- split: train |
|
|
path: filtered-by-rule/train-* |
|
|
- config_name: mix-wikihow-wikipedia |
|
|
data_files: |
|
|
- split: train |
|
|
path: mix-wikihow-wikipedia/train-* |
|
|
- config_name: ppl |
|
|
data_files: |
|
|
- split: train |
|
|
path: ppl/train-* |
|
|
- config_name: sample |
|
|
data_files: |
|
|
- split: train |
|
|
path: sample/train-* |
|
|
- config_name: tokenized_sample |
|
|
data_files: |
|
|
- split: train |
|
|
path: tokenized_sample/train-* |
|
|
- config_name: wiki-wikihow-vtv |
|
|
data_files: |
|
|
- split: train |
|
|
path: wiki-wikihow-vtv/train-* |
|
|
- config_name: wikihow |
|
|
data_files: |
|
|
- split: train |
|
|
path: wikihow/train-* |
|
|
--- |
|
|
|
|
|
# Wikipedia Dataset (Tiếng Việt) |
|
|
|
|
|
## 📖 Giới thiệu |
|
|
Bộ dữ liệu này được tải từ **Wikipedia tiếng Việt**, nhằm phục vụ cho các bài toán **xử lý ngôn ngữ tự nhiên (NLP)** như: |
|
|
- Huấn luyện mô hình ngôn ngữ (Language Model). |
|
|
- Tiền xử lý cho bài toán dịch máy (Machine Translation). |
|
|
- Nghiên cứu về ngôn ngữ tiếng Việt. |
|
|
|
|
|
## Mô tả data |
|
|
- id: định danh của bài viết |
|
|
- revid: revision ID của Wikipedia |
|
|
- url: đường dẫn trực tiếp đến bài viết |
|
|
- title: tiêu đề bài viết |
|
|
- text: nội dung văn bản trích xuất |
|
|
- ppl: perplexity (chỉ số đánh giá chất lượng mô hình ngôn ngữ trên văn bản đó) |
|
|
|
|
|
## 📂 Cấu trúc dữ liệu |
|
|
- `viwiki-latest-pages-articles.xml.bz2` – dump gốc từ Wikipedia. |
|
|
- `wiki_text.txt` – văn bản thô đã được tách từ XML (nếu bạn đã xử lý). |
|
|
- `tokenized.txt` – dữ liệu đã được tokenization (nếu có). |
|
|
- `vi.sp.model` – mô hình SentencePiece dùng để tokenize dữ liệu (nếu có). |
|
|
- `vi.arpa.bin` – mô hình ngôn ngữ KenLM đã huấn luyện (nếu có). |
|
|
|
|
|
## ⚙️ Nguồn dữ liệu |
|
|
- Tải trực tiếp từ Wikimedia Dumps (https://dumps.wikimedia.org/) |
|
|
- Phiên bản: `viwiki-YYYYMMDD` (hãy thay bằng ngày bạn tải) |
|
|
- Ngôn ngữ: **Tiếng Việt** |
|
|
|
|
|
## 📏 Thống kê (ví dụ mẫu) |
|
|
- Số bài viết: ~X triệu. |
|
|
- Số câu: ~Y triệu. |
|
|
- Số token: ~Z triệu. |
|
|
|
|
|
|
|
|
|
|
|
|