Feature Extraction
Transformers
Burmese
myX-Tokenizer-BPE / README.md
kalixlouiis's picture
Update README.md
832c291 verified
---
library_name: transformers
license: apache-2.0
datasets:
- kalixlouiis/raw-data
language:
- my
new_version: DatarrX/myX-Tokenizer
pipeline_tag: feature-extraction
---
# DatarrX / myX-Tokenizer-BPE ⚙️
**myX-Tokenizer-BPE** is a Byte Pair Encoding (BPE) based tokenizer specifically trained for the Burmese language. Developed by [**Khant Sint Heinn (Kalix Louis)**](https://huggingface.co/kalixlouiis) under [**DatarrX (Myanmar Open Source NGO)**](https://huggingface.co/DatarrX), this model serves as a baseline for Burmese NLP tasks using the BPE algorithm.
## 🎯 Objectives & Characteristics
* **BPE Baseline:** Designed to provide a standard BPE-based segmentation for Burmese text.
* **Burmese Focus:** This model was trained exclusively on Burmese text, making it highly specialized for native scripts.
* **Memory Efficiency:** Trained using a RAM-efficient approach with a large-scale corpus.
## 🛠️ Technical Specifications
* **Algorithm:** Byte Pair Encoding (BPE).
* **Vocabulary Size:** 64,000.
* **Normalization:** NFKC.
* **Features:** Byte-fallback, Split Digits, and Dummy Prefix.
### Training Data
Trained on [kalixlouiis/raw-data](https://huggingface.co/datasets/kalixlouiis/raw-data) using **1.5 million** Burmese-only sentences.
## ⚠️ Important Considerations (Limitations)
* **English Language Weakness:** Since this model was trained purely on Burmese data, it is notably weak in processing English text, often leading to excessive character-level fragmentation for Latin scripts.
* **BPE Nature:** Compared to our Unigram models, this BPE version may offer different segmentation logic which might affect certain downstream NLP tasks.
## Citation
If you use this tokenizer in your research or project, please cite it as follows:
### APA 7th Edition
Khant Sint Heinn. (2026). *myX-Tokenizer-BPE: Byte Pair Encoding Baseline for Burmese (Version 1.0)* [Computer software]. Hugging Face. https://huggingface.co/DatarrX/myX-Tokenizer-BPE
### BibTeX
```BibTeX
@software{khantsintheinn2026bpe,
author = {Khant Sint Heinn},
title = {myX-Tokenizer-BPE: Byte Pair Encoding Baseline for Burmese},
version = {1.0},
year = {2026},
publisher = {Hugging Face},
url = {https://huggingface.co/DatarrX/myX-Tokenizer-BPE},
note = {BPE algorithm based on Burmese raw data}
}
```
---
# DatarrX - myX-Tokenizer-BPE (မြန်မာဘာသာ) ⚙️
**myX-Tokenizer-BPE** သည် Byte Pair Encoding (BPE) algorithm ကို အသုံးပြု၍ မြန်မာဘာသာစကားအတွက် အထူးရည်ရွယ် တည်ဆောက်ထားသော Tokenizer ဖြစ်ပါသည်။ ဤ Model ကို **DatarrX (Myanmar Open Source NGO)**](https://huggingface.co/DatarrX) မှ ထုတ်ဝေခြင်းဖြစ်ပြီ [**Khant Sint Heinn (Kalix Louis)**](https://huggingface.co/kalixlouiis) မှ အဓိက ဖန်တီးထားခြင်း ဖြစ်ပါသည်။
## 🎯 ရည်ရွယ်ချက်နှင့် ထူးခြားချက်များ
* **BPE အခြေခံ:** မြန်မာစာသားများကို BPE နည်းပညာဖြင့် ဖြတ်တောက်ရာတွင် စံနှုန်းတစ်ခုအဖြစ် အသုံးပြုနိုင်ရန်။
* **မြန်မာစာ သီးသန့်:** ဤ Model ကို မြန်မာစာသား သီးသန့်ဖြင့်သာ လေ့ကျင့်ထားသဖြင့် ဗမာ(မြန်မာ)စာအရေးအသားများအတွက် အထူးပြုထားပါသည်။
* **အရည်အသွေးမြင့် Training:** စာကြောင်းပေါင်း ၁.၅ သန်းကို အသုံးပြု၍ RAM-efficient ဖြစ်သော နည်းလမ်းဖြင့် တည်ဆောက်ထားပါသည်။
## 🛠️ နည်းပညာဆိုင်ရာ အချက်အလက်များ
* **Algorithm:** Byte Pair Encoding (BPE)။
* **Vocab Size:** 64,000။
* **Normalization:** NFKC။
* **Features:** Byte-fallback, Split Digits နှင့် Dummy Prefix အင်္ဂါရပ်များ ပါဝင်ပါသည်။
### အသုံးပြုထားသော Dataset
[kalixlouiis/raw-data](https://huggingface.co/datasets/kalixlouiis/raw-data) ထဲမှ သန့်စင်ပြီးသား မြန်မာစာကြောင်းပေါင်း **၁.၅ သန်း (1.5 Million)** ကို အသုံးပြုထားပါသည်။
## ⚠️ သိထားရန် ကန့်သတ်ချက်များ
* **အင်္ဂလိပ်စာ အားနည်းမှု:** ဤ Model ကို မြန်မာစာ သီးသန့်ဖြင့်သာ Train ထားခြင်းကြောင့် အင်္ဂလိပ်စာလုံးများကို ဖြတ်တောက်ရာတွင် အလွန်အားနည်းပြီး စာလုံးတစ်လုံးချင်းစီ ကွဲထွက်သွားတတ်ပါသည်။
* **BPE ၏ သဘာဝ:** ကျွန်တော်တို့၏ Unigram model များနှင့် ယှဉ်ပါက ဖြတ်တောက်ပုံခြင်း ကွဲပြားနိုင်သဖြင့် မိမိအသုံးပြုမည့် task အပေါ် မူတည်၍ ရွေးချယ်ရန် လိုအပ်ပါသည်။
---
## 💻 How to Use (အသုံးပြုနည်း)
```python
import sentencepiece as spm
from huggingface_hub import hf_hub_download
model_path = hf_hub_download(repo_id="DatarrX/myX-Tokenizer-BPE", filename="myX-Tokenizer.model")
sp = spm.SentencePieceProcessor(model_file=model_path)
text = "မြန်မာစာကို BPE algorithm နဲ့ ဖြတ်တောက်ကြည့်ခြင်း။"
print(sp.encode_as_pieces(text))
```
# ✍️ Project Authors
- Developer: [**Khant Sint Heinn (Kalix Louis)**](https://huggingface.co/kalixlouiis)
- Organization: [**DatarrX (Myanmar Open Source NGO)**](https://huggingface.co/DatarrX)
## Citation
အကယ်၍ သင်သည် ဤ model ကို သင်၏ သုတေသနလုပ်ငန်းများတွင် အသုံးပြုခဲ့ပါက အောက်ပါအတိုင်း ကိုးကားပေးရန် မေတ္တာရပ်ခံအပ်ပါသည်။
### APA 7th Edition
Khant Sint Heinn. (2026). *myX-Tokenizer-BPE: Byte Pair Encoding Baseline for Burmese (Version 1.0)* [Computer software]. Hugging Face. https://huggingface.co/DatarrX/myX-Tokenizer-BPE
### BibTeX
```BibTeX
@software{khantsintheinn2026bpe,
author = {Khant Sint Heinn},
title = {myX-Tokenizer-BPE: Byte Pair Encoding Baseline for Burmese},
version = {1.0},
year = {2026},
publisher = {Hugging Face},
url = {https://huggingface.co/DatarrX/myX-Tokenizer-BPE},
note = {BPE algorithm based on Burmese raw data}
}
```
## License 📜
This project is licensed under the **Apache License 2.0**.
### What does this mean?
The Apache License 2.0 is a permissive license that allows you to:
* **Commercial Use:** You can use this tokenizer for commercial purposes.
* **Modification:** You can modify the model or the code for your specific needs.
* **Distribution:** You can share and distribute the original or modified versions.
* **Sublicensing:** You can grant sublicenses to others.
### Conditions:
* **Attribute:** You must give appropriate credit to the author (**Khant Sint Heinn**) and the organization (**DatarrX**).
* **License Notice:** You must include a copy of the license and any original copyright notice in your distribution.
For more details, you can read the full license text at [http://www.apache.org/licenses/LICENSE-2.0](http://www.apache.org/licenses/LICENSE-2.0).