| | --- |
| | library_name: transformers |
| | license: apache-2.0 |
| | datasets: |
| | - kalixlouiis/raw-data |
| | language: |
| | - my |
| | new_version: DatarrX/myX-Tokenizer |
| | pipeline_tag: feature-extraction |
| | --- |
| | # DatarrX / myX-Tokenizer-BPE ⚙️ |
| |
|
| | **myX-Tokenizer-BPE** is a Byte Pair Encoding (BPE) based tokenizer specifically trained for the Burmese language. Developed by [**Khant Sint Heinn (Kalix Louis)**](https://huggingface.co/kalixlouiis) under [**DatarrX (Myanmar Open Source NGO)**](https://huggingface.co/DatarrX), this model serves as a baseline for Burmese NLP tasks using the BPE algorithm. |
| |
|
| | ## 🎯 Objectives & Characteristics |
| |
|
| | * **BPE Baseline:** Designed to provide a standard BPE-based segmentation for Burmese text. |
| | * **Burmese Focus:** This model was trained exclusively on Burmese text, making it highly specialized for native scripts. |
| | * **Memory Efficiency:** Trained using a RAM-efficient approach with a large-scale corpus. |
| |
|
| | ## 🛠️ Technical Specifications |
| |
|
| | * **Algorithm:** Byte Pair Encoding (BPE). |
| | * **Vocabulary Size:** 64,000. |
| | * **Normalization:** NFKC. |
| | * **Features:** Byte-fallback, Split Digits, and Dummy Prefix. |
| |
|
| | ### Training Data |
| | Trained on [kalixlouiis/raw-data](https://huggingface.co/datasets/kalixlouiis/raw-data) using **1.5 million** Burmese-only sentences. |
| |
|
| | ## ⚠️ Important Considerations (Limitations) |
| |
|
| | * **English Language Weakness:** Since this model was trained purely on Burmese data, it is notably weak in processing English text, often leading to excessive character-level fragmentation for Latin scripts. |
| | * **BPE Nature:** Compared to our Unigram models, this BPE version may offer different segmentation logic which might affect certain downstream NLP tasks. |
| |
|
| | ## Citation |
| |
|
| | If you use this tokenizer in your research or project, please cite it as follows: |
| |
|
| | ### APA 7th Edition |
| | Khant Sint Heinn. (2026). *myX-Tokenizer-BPE: Byte Pair Encoding Baseline for Burmese (Version 1.0)* [Computer software]. Hugging Face. https://huggingface.co/DatarrX/myX-Tokenizer-BPE |
| |
|
| | ### BibTeX |
| | ```BibTeX |
| | @software{khantsintheinn2026bpe, |
| | author = {Khant Sint Heinn}, |
| | title = {myX-Tokenizer-BPE: Byte Pair Encoding Baseline for Burmese}, |
| | version = {1.0}, |
| | year = {2026}, |
| | publisher = {Hugging Face}, |
| | url = {https://huggingface.co/DatarrX/myX-Tokenizer-BPE}, |
| | note = {BPE algorithm based on Burmese raw data} |
| | } |
| | ``` |
| |
|
| | --- |
| |
|
| | # DatarrX - myX-Tokenizer-BPE (မြန်မာဘာသာ) ⚙️ |
| |
|
| | **myX-Tokenizer-BPE** သည် Byte Pair Encoding (BPE) algorithm ကို အသုံးပြု၍ မြန်မာဘာသာစကားအတွက် အထူးရည်ရွယ် တည်ဆောက်ထားသော Tokenizer ဖြစ်ပါသည်။ ဤ Model ကို **DatarrX (Myanmar Open Source NGO)**](https://huggingface.co/DatarrX) မှ ထုတ်ဝေခြင်းဖြစ်ပြီ [**Khant Sint Heinn (Kalix Louis)**](https://huggingface.co/kalixlouiis) မှ အဓိက ဖန်တီးထားခြင်း ဖြစ်ပါသည်။ |
| |
|
| | ## 🎯 ရည်ရွယ်ချက်နှင့် ထူးခြားချက်များ |
| |
|
| | * **BPE အခြေခံ:** မြန်မာစာသားများကို BPE နည်းပညာဖြင့် ဖြတ်တောက်ရာတွင် စံနှုန်းတစ်ခုအဖြစ် အသုံးပြုနိုင်ရန်။ |
| | * **မြန်မာစာ သီးသန့်:** ဤ Model ကို မြန်မာစာသား သီးသန့်ဖြင့်သာ လေ့ကျင့်ထားသဖြင့် ဗမာ(မြန်မာ)စာအရေးအသားများအတွက် အထူးပြုထားပါသည်။ |
| | * **အရည်အသွေးမြင့် Training:** စာကြောင်းပေါင်း ၁.၅ သန်းကို အသုံးပြု၍ RAM-efficient ဖြစ်သော နည်းလမ်းဖြင့် တည်ဆောက်ထားပါသည်။ |
| |
|
| | ## 🛠️ နည်းပညာဆိုင်ရာ အချက်အလက်များ |
| |
|
| | * **Algorithm:** Byte Pair Encoding (BPE)။ |
| | * **Vocab Size:** 64,000။ |
| | * **Normalization:** NFKC။ |
| | * **Features:** Byte-fallback, Split Digits နှင့် Dummy Prefix အင်္ဂါရပ်များ ပါဝင်ပါသည်။ |
| |
|
| | ### အသုံးပြုထားသော Dataset |
| | [kalixlouiis/raw-data](https://huggingface.co/datasets/kalixlouiis/raw-data) ထဲမှ သန့်စင်ပြီးသား မြန်မာစာကြောင်းပေါင်း **၁.၅ သန်း (1.5 Million)** ကို အသုံးပြုထားပါသည်။ |
| |
|
| | ## ⚠️ သိထားရန် ကန့်သတ်ချက်များ |
| |
|
| | * **အင်္ဂလိပ်စာ အားနည်းမှု:** ဤ Model ကို မြန်မာစာ သီးသန့်ဖြင့်သာ Train ထားခြင်းကြောင့် အင်္ဂလိပ်စာလုံးများကို ဖြတ်တောက်ရာတွင် အလွန်အားနည်းပြီး စာလုံးတစ်လုံးချင်းစီ ကွဲထွက်သွားတတ်ပါသည်။ |
| | * **BPE ၏ သဘာဝ:** ကျွန်တော်တို့၏ Unigram model များနှင့် ယှဉ်ပါက ဖြတ်တောက်ပုံခြင်း ကွဲပြားနိုင်သဖြင့် မိမိအသုံးပြုမည့် task အပေါ် မူတည်၍ ရွေးချယ်ရန် လိုအပ်ပါသည်။ |
| |
|
| | --- |
| |
|
| | ## 💻 How to Use (အသုံးပြုနည်း) |
| |
|
| | ```python |
| | import sentencepiece as spm |
| | from huggingface_hub import hf_hub_download |
| | |
| | model_path = hf_hub_download(repo_id="DatarrX/myX-Tokenizer-BPE", filename="myX-Tokenizer.model") |
| | sp = spm.SentencePieceProcessor(model_file=model_path) |
| | |
| | text = "မြန်မာစာကို BPE algorithm နဲ့ ဖြတ်တောက်ကြည့်ခြင်း။" |
| | print(sp.encode_as_pieces(text)) |
| | ``` |
| |
|
| | # ✍️ Project Authors |
| | - Developer: [**Khant Sint Heinn (Kalix Louis)**](https://huggingface.co/kalixlouiis) |
| | - Organization: [**DatarrX (Myanmar Open Source NGO)**](https://huggingface.co/DatarrX) |
| |
|
| | ## Citation |
| |
|
| | အကယ်၍ သင်သည် ဤ model ကို သင်၏ သုတေသနလုပ်ငန်းများတွင် အသုံးပြုခဲ့ပါက အောက်ပါအတိုင်း ကိုးကားပေးရန် မေတ္တာရပ်ခံအပ်ပါသည်။ |
| |
|
| | ### APA 7th Edition |
| | Khant Sint Heinn. (2026). *myX-Tokenizer-BPE: Byte Pair Encoding Baseline for Burmese (Version 1.0)* [Computer software]. Hugging Face. https://huggingface.co/DatarrX/myX-Tokenizer-BPE |
| |
|
| | ### BibTeX |
| | ```BibTeX |
| | @software{khantsintheinn2026bpe, |
| | author = {Khant Sint Heinn}, |
| | title = {myX-Tokenizer-BPE: Byte Pair Encoding Baseline for Burmese}, |
| | version = {1.0}, |
| | year = {2026}, |
| | publisher = {Hugging Face}, |
| | url = {https://huggingface.co/DatarrX/myX-Tokenizer-BPE}, |
| | note = {BPE algorithm based on Burmese raw data} |
| | } |
| | ``` |
| |
|
| | ## License 📜 |
| |
|
| | This project is licensed under the **Apache License 2.0**. |
| |
|
| | ### What does this mean? |
| | The Apache License 2.0 is a permissive license that allows you to: |
| |
|
| | * **Commercial Use:** You can use this tokenizer for commercial purposes. |
| | * **Modification:** You can modify the model or the code for your specific needs. |
| | * **Distribution:** You can share and distribute the original or modified versions. |
| | * **Sublicensing:** You can grant sublicenses to others. |
| |
|
| | ### Conditions: |
| | * **Attribute:** You must give appropriate credit to the author (**Khant Sint Heinn**) and the organization (**DatarrX**). |
| | * **License Notice:** You must include a copy of the license and any original copyright notice in your distribution. |
| |
|
| | For more details, you can read the full license text at [http://www.apache.org/licenses/LICENSE-2.0](http://www.apache.org/licenses/LICENSE-2.0). |