🐰 ShweYon-V3-Base (ရွှေယုန်-V3)

ShweYon-V3-Base သည် Qwen 2.5 1.5B ကို အခြေခံ၍ မြန်မာဘာသာစကားအတွက် အထူးပြုပြင်ထားသော Base Model ဖြစ်ပါသည်။ ဤ Version တွင် ယခင် Version များကဲ့သို့ Tokenizer သီးခြားသုံးရန် မလိုတော့ဘဲ Model ၏ Embedding ထဲသို့ မြန်မာတုံကင်များကို တိုက်ရိုက်ပေါင်းစပ်ထားပါသည်။ ShweYon-V3-Base is a Myanmar-centric base language model built on top of the Qwen 2.5 1.5B architecture. This model is a milestone in the "ShweYon" project, focusing on improving the efficiency of Myanmar script processing through a custom tokenizer.

🎯 Purpose (ရည်ရွယ်ချက်)

ဤ Model သည် မြန်မာဘာသာစကားအတွက် Foundation Base Model တစ်ခုအဖြစ် ရည်ရွယ်ပါသည်။ ဤ Model ကို အခြေခံ၍ Chatbot များ၊ Question Answering စနစ်များနှင့် အခြားသော Downstream NLP Task များအတွက် ထပ်မံ၍ Fine-tuning (SFT/RLHF) ပြုလုပ်ရန် အကောင်းဆုံး အုတ်မြစ်ဖြစ်ပါသည်။

✨ Technical Highlights

  • Integrated Tokenizer: မြန်မာဝိဘတ်များနှင့် စကားလုံးပေါင်း ၉,၀၀၀ ကျော် ပါဝင်သော Custom Tokenizer ကို တစ်ပါတည်း ထည့်သွင်းထားပါသည်။
  • Extended Vocabulary: Vocabulary Size ကို 160,746 အထိ တိုးမြှင့်ထားသဖြင့် မြန်မာစာသားများကို ပိုမိုကျစ်လျစ်စွာနှင့် မြန်ဆန်စွာ တွက်ချက်နိုင်ပါသည်။
  • Base Training: မြန်မာစာပေ စာအုပ်များစွာဖြင့် Model ၏ မြန်မာစာ အခြေခံဗဟုသုတ ပိုမိုကောင်းမွန်လာစေရန် လေ့ကျင့်ပေးထားပါသည်။

🚀 Quick Start

ဤ Base Model ကို အောက်ပါအတိုင်း ခေါ်ယူအသုံးပြုနိုင်ပါသည်။

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "URajinda/ShweYon-V3-Base"

# မျက်မှန်ရော ဦးနှောက်ရော တစ်ခါတည်း ပါလာပါမည်
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

# စမ်းသပ်ကြည့်ရန်
prompt = "မြန်မာနိုင်ငံ၏ သမိုင်းကြောင်းမှာ"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=32)
print(tokenizer.decode(outputs[0]))

⚠️ Note
ဤ Model သည် Base Model သာ ဖြစ်သောကြောင့် လူသားနှင့် စကားပြောဆိုရန် (Instruction Following) အတွက် ထပ်မံ၍ Chat Fine-tuning လုပ်ရန် လိုအပ်ပါသေးသည်။

⚖️ License
Apache License 2.0
Downloads last month
39
Safetensors
Model size
2B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for URajinda/ShweYon-V3-Base

Base model

Qwen/Qwen2.5-1.5B
Finetuned
(276)
this model
Quantizations
2 models