indo-ner-dataset / README.md
treamyracle's picture
Update README.md
c7e8e5e verified
---
dataset_info:
features:
- name: text
dtype: string
- name: entities
list:
- name: end
dtype: int64
- name: label
dtype: string
- name: start
dtype: int64
splits:
- name: train
num_bytes: 29492494
num_examples: 131767
download_size: 13823720
dataset_size: 29492494
configs:
- config_name: default
data_files:
- split: train
path: data/train-*
license: apache-2.0
language:
- id
tags:
- indo
- NER
pretty_name: indo-ner-dataset
size_categories:
- 100K<n<1M
---
# Indonesian NER Dataset (EYD V Standard)
## Dataset Description
Dataset ini merupakan dataset **Named Entity Recognition (NER)** untuk Bahasa Indonesia yang disusun berdasarkan aturan **Ejaan Bahasa Indonesia yang Disempurnakan (EYD) Edisi V**.
Dataset ini dirancang khusus untuk menangani kasus **Capitalization Restoration** (Pemulihan Huruf Kapital) dan pengenalan entitas pada teks yang memiliki kapitalisasi tidak standar (seperti hasil ASR/Speech-to-Text atau media sosial).
### Pipeline Pembuatan Data
Dataset ini dibuat menggunakan metode *Semi-Supervised / Human-in-the-Loop* dengan tahapan berikut:
1. **Source:** Data awal diambil dari dataset **Few-NERD** (Supervised Split).
2. **Translation:** Diterjemahkan dari Bahasa Inggris ke Bahasa Indonesia menggunakan model **NLLB-200-3.3B** (Full Precision/FP16) untuk menjaga kualitas konteks.
3. **Auto-Tagging:** Dilabeli secara otomatis menggunakan **GLiNER-Multi-v2.1** dengan prompt label khusus.
## Supported Tasks
* **Named Entity Recognition (NER):** Ekstraksi entitas standar.
* **Capitalization Restoration:** Melatih model untuk memperbaiki huruf kecil menjadi huruf kapital yang benar (Truecasing).
---
## Tagging Schema (Aturan Label)
Dataset ini menggunakan **7 Label Utama** yang sangat spesifik terhadap aturan tata bahasa Indonesia:
| Label | Deskripsi & Aturan EYD | Contoh |
| :--- | :--- | :--- |
| **PER** | **Person (Nama Orang & Tuhan)**<br>Digunakan untuk nama orang asli, julukan, nama Tuhan, nama nabi, kitab suci, dan kata ganti Tuhan (-Mu, -Nya). | *Jokowi*, *Wage Rudolf Supratman*, *Allah*, *Al-Quran*, *hamba-Mu*. |
| **TIT** | **Title (Gelar & Jabatan)**<br>Hanya diberi label jika **diikuti nama orang** atau digunakan sebagai pengganti nama orang tertentu. | *Presiden* Jokowi, *Jenderal* Sudirman, *Haji* Lulung, *Profesor* Habibie. |
| **LOC** | **Location (Geografi)**<br>Nama diri geografi (kota, sungai, gunung, jalan). **Tidak** dilabeli jika digunakan sebagai nama jenis (mis: pisang ambon, garam inggris). | *Jakarta*, *Sungai Musi*, *Jalan Sudirman*, *Gunung Semeru*. |
| **ORG** | **Organization (Instansi & Dokumen)**<br>Nama badan, lembaga, perusahaan, organisasi, dan dokumen resmi negara. | *PBB*, *Bank Mandiri*, *Undang-Undang Dasar 1945*, *PT Telkom*. |
| **TIME** | **Time (Waktu & Sejarah)**<br>Nama hari, bulan, tahun, hari raya, dan peristiwa sejarah penting. | hari *Senin*, bulan *Agustus*, *Lebaran*, *Proklamasi Kemerdekaan*. |
| **ETH** | **Ethnicity (Suku, Bangsa, Bahasa)**<br>Hanya nama sukunya saja yang dikapitalisasi, kata "suku/bahasa"-nya tidak. | suku *Jawa*, bahasa *Inggris*, bangsa *Indonesia*. |
| **ADDR** | **Address (Kata Sapaan)**<br>Kata penunjuk hubungan kekerabatan (bapak, ibu, saudara) atau kata ganti (Anda) yang digunakan sebagai **sapaan langsung**. | "Siap, *Pak*.", "Apakah *Ibu* sudah makan?", "Terima kasih, *Anda* sudah membantu." |
---
## Data Structure
Setiap sampel data direpresentasikan dalam format JSON dengan field berikut:
```json
{
"text": "Presiden Jokowi meresmikan bendungan di Jawa Barat hari Senin.",
"entities": [
[0, 8, "TIT"],
[9, 15, "PER"],
[40, 50, "LOC"],
[56, 61, "TIME"]
]
}
text: String kalimat input.
entities: List yang berisi [start_offset, end_offset, label]. Offset berbasis karakter.
```
Usage (Cara Menggunakan)
Anda dapat memuat dataset ini menggunakan library datasets dari Hugging Face:
Python
```python
from datasets import load_dataset
# Ganti 'username/dataset' dengan ID repo Anda
dataset = load_dataset("username_anda/nama-dataset-anda")
# Contoh melihat data train pertama
print(dataset['train'][0])
# Output:
# {'text': '...', 'entities': [[0, 5, 'PER'], ...]}
```
Konversi ke Format Token (BIO)
Jika Anda membutuhkan format BIO (untuk training BERT/RoBERTa), Anda dapat menggunakan script konversi sederhana pada offset entities.
Limitations
Translation Artifacts: Karena berbasis terjemahan NLLB, struktur kalimat pada sebagian data mungkin terasa kaku atau menggunakan diksi yang kurang lazim (translationese).
Bias: Dataset ini mungkin memiliki bias terhadap entitas-entitas Barat (nama orang/lokasi) karena sumber aslinya (Few-NERD) berasal dari teks Bahasa Inggris, meskipun telah diadaptasi.
License
Dataset ini didistribusikan di bawah lisensi Apache-2.0.