Datasets:
Update README.md
Browse files
README.md
CHANGED
|
@@ -75,17 +75,33 @@ configs:
|
|
| 75 |
|
| 76 |
# Dataset: Wikipedia Indonesian (Partial Splits)
|
| 77 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 78 |
## Deskripsi Dataset
|
| 79 |
Dataset ini berisi bagian-bagian *(splits)* dari korpus **Wikipedia berbahasa Indonesia**, yang diekstrak pada tanggal **1 November 2023**. Dataset asli dimuat dari koleksi `wikimedia/wikipedia` di Hugging Face Hub.
|
| 80 |
-
|
| 81 |
Korpus asli Wikipedia adalah dataset yang sangat besar. Untuk memudahkan penggunaan dan pengelolaan, terutama untuk tujuan *fine-tuning* model bahasa atau eksperimen pada sebagian data, dataset ini telah dipecah menjadi **14 parts** yang lebih kecil. Setiap bagian berisi blok teks yang berurutan dari data Wikipedia Indonesia asli.
|
| 82 |
|
|
|
|
|
|
|
| 83 |
## Struktur Dataset
|
| 84 |
Dataset ini distrukturkan menjadi beberapa *individual split*, di mana setiap split merepresentasikan segmen data dari korpus Wikipedia asli.
|
| 85 |
- Total Part: 14
|
| 86 |
- Nama: `Part001`, `Part002`, ..., `Part014`
|
| 87 |
- Format: Apache Arrow atau Parquet
|
| 88 |
|
|
|
|
|
|
|
| 89 |
## Kolom
|
| 90 |
Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset Wikipedia asli:
|
| 91 |
- `id`: (string) ID unik dari artikel Wikipedia.
|
|
@@ -93,6 +109,8 @@ Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset
|
|
| 93 |
- `title`: (string) Judul artikel Wikipedia.
|
| 94 |
- `text`: (string) Konten teks lengkap dari artikel Wikipedia.
|
| 95 |
|
|
|
|
|
|
|
| 96 |
## Cara Menggunakan Dataset
|
| 97 |
Anda dapat memuat dataset ini menggunakan library datasets dari Hugging Face. Anda bisa memuat seluruh dataset atau hanya split tertentu.
|
| 98 |
|
|
@@ -141,6 +159,8 @@ Judul Artikel: Penyarang, Sidareja, Cilacap
|
|
| 141 |
Isi Teks: Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia....
|
| 142 |
```
|
| 143 |
|
|
|
|
|
|
|
| 144 |
## Sumber Data
|
| 145 |
Dataset ini berasal dari:
|
| 146 |
- Nama Dataset Asli: `wikimedia/wikipedia`
|
|
@@ -148,6 +168,8 @@ Dataset ini berasal dari:
|
|
| 148 |
|
| 149 |
Data ini kemudian diolah dan dipecah menjadi bagian-bagian yang lebih kecil seperti yang dijelaskan di atas.
|
| 150 |
|
|
|
|
|
|
|
| 151 |
## Catatan
|
| 152 |
Dataset ini ideal untuk eksperimen awal, fine-tuning model pada sub-bagian data, atau jika Anda memiliki sumber daya komputasi yang terbatas dan tidak memerlukan seluruh korpus Wikipedia.
|
| 153 |
Karena ini adalah data Wikipedia, kontennya mungkin bervariasi dan mencakup berbagai topik, gaya penulisan, dan potensi bias yang ada dalam sumber aslinya.
|
|
|
|
| 75 |
|
| 76 |
# Dataset: Wikipedia Indonesian (Partial Splits)
|
| 77 |
|
| 78 |
+
## Motivasi
|
| 79 |
+
|
| 80 |
+
Mengembangkan dan mempersiapkan dataset ini untuk *fine-tuning* bukanlah hal yang mudah, terutama dengan keterbatasan *resource* yang saya alami. Meski saya sudah berlangganan **Colab Pro+** yang menjanjikan akses ke GPU berperforma tinggi (seperti A100 atau H100) dan *resource* lebih besar, ada beberapa tantangan signifikan yang muncul:
|
| 81 |
+
|
| 82 |
+
* **Pembatasan Disk Space Colab VM:** Saya sering menghadapi masalah "No space left on device" pada disk lokal Colab VM. Ini terjadi bahkan saat saya sudah mengelola file *checkpoint* dan *cache* Google Drive dengan sangat cermat.
|
| 83 |
+
* **Keterbatasan Ruang Google Drive yang Terhubung:** Saya memiliki akun Google Drive *unlimited* terpisah, namun sayangnya **tidak bisa memanfaatkan ruang Drive tersebut secara langsung dengan akun Google Colab yang saya gunakan untuk pelatihan.** Hal ini berarti saya terikat pada batas penyimpanan Google Drive standar yang terhubung dengan akun Colab utama saya, sangat membatasi kapasitas untuk menyimpan *checkpoint* besar atau data mentah secara aman.
|
| 84 |
+
* **Masalah Sinkronisasi Google Drive:** Terkadang, terjadi korupsi *cache* Google Drive File Stream atau masalah sinkronisasi yang menyebabkan file *checkpoint* yang sudah saya simpan menghilang secara misterius, atau terlihat kosong di VM. Ini terjadi meskipun file-nya mungkin masih ada di *cloud*. Kondisi ini berujung pada hilangnya progres pelatihan berjam-jam dan keharusan mengulang proses dari awal.
|
| 85 |
+
* **Keterbatasan Sesi:** Meskipun Colab Pro+ menyediakan sesi yang lebih panjang, batasan waktu tetap ada. Jika tidak diantisipasi dengan *checkpointing* yang andal, sesi pelatihan yang terputus bisa sangat merugikan.
|
| 86 |
+
|
| 87 |
+
Pengalaman ini mendorong saya untuk mengadopsi pendekatan "multipart" untuk dataset ini dan menekankan pentingnya manajemen *resource* yang ketat serta strategi *checkpointing* yang *robust*. Semoga dengan membagi dataset ini, pengguna lain bisa lebih mudah mengelola *resource* mereka saat *fine-tuning* model mereka sendiri.
|
| 88 |
+
|
| 89 |
+
-----
|
| 90 |
+
|
| 91 |
## Deskripsi Dataset
|
| 92 |
Dataset ini berisi bagian-bagian *(splits)* dari korpus **Wikipedia berbahasa Indonesia**, yang diekstrak pada tanggal **1 November 2023**. Dataset asli dimuat dari koleksi `wikimedia/wikipedia` di Hugging Face Hub.
|
|
|
|
| 93 |
Korpus asli Wikipedia adalah dataset yang sangat besar. Untuk memudahkan penggunaan dan pengelolaan, terutama untuk tujuan *fine-tuning* model bahasa atau eksperimen pada sebagian data, dataset ini telah dipecah menjadi **14 parts** yang lebih kecil. Setiap bagian berisi blok teks yang berurutan dari data Wikipedia Indonesia asli.
|
| 94 |
|
| 95 |
+
-----
|
| 96 |
+
|
| 97 |
## Struktur Dataset
|
| 98 |
Dataset ini distrukturkan menjadi beberapa *individual split*, di mana setiap split merepresentasikan segmen data dari korpus Wikipedia asli.
|
| 99 |
- Total Part: 14
|
| 100 |
- Nama: `Part001`, `Part002`, ..., `Part014`
|
| 101 |
- Format: Apache Arrow atau Parquet
|
| 102 |
|
| 103 |
+
-----
|
| 104 |
+
|
| 105 |
## Kolom
|
| 106 |
Setiap split dalam dataset ini memiliki struktur kolom yang sama dengan dataset Wikipedia asli:
|
| 107 |
- `id`: (string) ID unik dari artikel Wikipedia.
|
|
|
|
| 109 |
- `title`: (string) Judul artikel Wikipedia.
|
| 110 |
- `text`: (string) Konten teks lengkap dari artikel Wikipedia.
|
| 111 |
|
| 112 |
+
-----
|
| 113 |
+
|
| 114 |
## Cara Menggunakan Dataset
|
| 115 |
Anda dapat memuat dataset ini menggunakan library datasets dari Hugging Face. Anda bisa memuat seluruh dataset atau hanya split tertentu.
|
| 116 |
|
|
|
|
| 159 |
Isi Teks: Penyarang adalah desa di kecamatan Sidareja, Cilacap, Jawa Tengah, Indonesia....
|
| 160 |
```
|
| 161 |
|
| 162 |
+
-----
|
| 163 |
+
|
| 164 |
## Sumber Data
|
| 165 |
Dataset ini berasal dari:
|
| 166 |
- Nama Dataset Asli: `wikimedia/wikipedia`
|
|
|
|
| 168 |
|
| 169 |
Data ini kemudian diolah dan dipecah menjadi bagian-bagian yang lebih kecil seperti yang dijelaskan di atas.
|
| 170 |
|
| 171 |
+
-----
|
| 172 |
+
|
| 173 |
## Catatan
|
| 174 |
Dataset ini ideal untuk eksperimen awal, fine-tuning model pada sub-bagian data, atau jika Anda memiliki sumber daya komputasi yang terbatas dan tidak memerlukan seluruh korpus Wikipedia.
|
| 175 |
Karena ini adalah data Wikipedia, kontennya mungkin bervariasi dan mencakup berbagai topik, gaya penulisan, dan potensi bias yang ada dalam sumber aslinya.
|