LilTii-v0.2
Model Summary
LilTii-v0.2 is a decoder-transformer natively pretrained in Bengali and English. LilTii is part of the Polygl0t initiative to advance language models for low-resource languages.
Details
- Architecture: a Transformer-based model (
llama) - Size: 670,127,616 parameters
- Context length: 4096 tokens
- Dataset(s):
- Language(s): Bengali, English
- Batch size: 2,097,152 tokens
- Number of steps: 110,000
- GPU: 8 NVIDIA A100-SXM4-80GB
- Training time: ~ 215 hours
- Emissions: 333 KgCO2 (Germany)
- Total energy consumption: 875 kWh
This repository has the source code used to train this model. The full configuration used for training is available in the following config files:
- Stage 1 (warmup + stable): config_stage_1.yaml
- Stage 2 (stable): config_stage_2.yaml
- Stage 3 (stable + decay): config_stage_3.yaml
Learning Rate
This model was trained with a linear learning rate (i.e., warmup-stable-decay). Warmup was done over the first 2,000 steps to a peak learning rate of 7e-4, followed by a stable phase until step 98,000 (this revision is named end-of-stable-ckpt), and then a linear decay to 0 for the last 12,000 steps. Checkpoints were saved every 2,500 steps, which equates to approximately 5 billion tokens. The end-of-stable-ckpt can be used for continuing training with a stable learning rate if desired.
The main branch of this repository contains the final checkpoint saved at step 110,000. All other checkpoints are available as separate branches. To load a specific checkpoint, you can use the following code snippet:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "Polygl0t/LilTii-v0.2"
revision = "step-2500" # Change this to the desired checkpoint branch
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, revision=revision)
Or, you can access all the revisions for the models via the following code snippet:
from huggingface_hub import list_repo_refs
out = list_repo_refs("Polygl0t/LilTii-v0.2")
branches = [b.name for b in out.branches]
print(branches)
Intended Uses
The primary intended use LilTii is to serve as foundations for research and development involving native Bengali language modeling. Checkpoints saved during training are designed to provide a controlled setting for performing comparative experiments, specifically regarding the effects of active pretraining on the performance of currently available benchmarks. You may also fine-tune and adapt LilTii for deployment if your use follows the Apache 2.0 license. If you decide to use LilTii as a basis for your fine-tuned model, please conduct your own risk and bias assessment.
Out-of-scope Use
LilTii is not intended for deployment. It is not an out-of-the-box product and should not be used for human-facing interactions.
LilTii is for the Bengali language only and is unsuitable for text generation tasks in other languages.
LilTii has not been fine-tuned for downstream tasks.
Basic usage
from transformers import GenerationConfig, TextGenerationPipeline, AutoTokenizer, AutoModelForCausalLM
import torch
# Specify the model and tokenizer
model_id = "Polygl0t/LilTii-v0.2"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
# Specify the generation parameters as you like
generation_config = GenerationConfig(
**{
"do_sample": True,
"max_new_tokens": 150,
"renormalize_logits": True,
"repetition_penalty": 1.2,
"temperature": 0.1,
"top_k": 50,
"top_p": 1.0,
"use_cache": True,
}
)
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
generator = TextGenerationPipeline(model=model, task="text-generation", tokenizer=tokenizer, device=device)
# Generate text
prompt = "বাংলাদেশের রাজধানী হলো"
completion = generator(prompt, generation_config=generation_config)
print(completion[0]['generated_text'])
Limitations
Like almost all other language models trained on large text datasets scraped from the web, the LilTii shows behavior that does not make it an out-of-the-box solution to many real-world applications, especially those requiring factual, reliable, and nontoxic text generation. LilTii is subject to the following:
Hallucinations: LilTii can produce content that can be mistaken as true facts, but are misleading or entirely false, i.e., hallucination.
Biases and Toxicity: LilTii inherits the social and historical stereotypes from the data used to train it. Given these biases, the model can produce toxic content, i.e., harmful, offensive, or detrimental to individuals, groups, or communities.
Language Limitations: LilTii is primarily designed to interact with Bengali. Other languages might challenge its comprehension, leading to potential misinterpretations or errors in response.
Repetition and Verbosity: LilTii may get stuck on repetition loops (especially if the repetition penalty during generations is set to a meager value) or produce verbose responses unrelated to the prompt it was given.
Hence, even though LilTii is released with a permissive license, we urge users to perform their risk analysis on them if they intend to use them for real-world applications.
Evaluations
The table below compares our two versions of LilTii against other base models of similar size. The NPM (Normalized Performance Metric) is a metric designed to provide a balanced view of model performance across various tasks, accounting for the inherent difficulty of each task. It normalizes the performance of each model on a given task by comparing it to a baseline performance, which represents a the performance of a random model.
| NPM (normalized mean) | ARC Challenge | HellaSwag | MMLU | TruthfulQA MC1 | Bangla MMLU | BoolQ-BN | CommonsenseQA-BN | OpenBookQA-BN | PIQA-BN | |
|---|---|---|---|---|---|---|---|---|---|---|
| LilTii-v0.2 | 9.63 | 26.18 | 32.20 | 27.06 | 25.48 | 26.09 | 60.65 | 32.43 | 32.19 | 60.50 |
| Qwen3-0.6B-Base | 8.07 | 22.84 | 28.70 | 29.79 | 27.14 | 32.57 | 65.74 | 23.01 | 30.58 | 52.72 |
| Qwen2.5-0.5B | 6.04 | 22.93 | 28.42 | 28.31 | 28.17 | 30.84 | 57.87 | 22.11 | 30.58 | 53.59 |
| LilTii-v0.1 | 5.82 | 23.52 | 30.31 | 26.41 | 24.07 | 23.95 | 52.08 | 30.22 | 32.80 | 58.71 |
Performance vs Compute
This plot compares the compute requirements (measured as C = 6 * N * D, where N is the number of parameters and D is the number of tokens processed) against the performance of each model (measured by NPM mean). It highlights the trade-offs between model size, training data, and performance. LilTii models are compared against two baseline models: Qwen2.5-0.5B and Qwen3-0.6B-Base, which are state-of-the-art multilingual models.
Text Generation Examples
All models were prompted with the same Bengali prompts, and the generations were produced with the default parameters specified in the generation_config.json of each model. All models were set to generate up to 250 new tokens. LilTii models generally produce more text given their custom tokenizer and vocabulary, which is more adapted to Bengali.
| Model | Prompt | Generated Completion |
|---|---|---|
| Qwen/Qwen2.5-0.5B | বাংলাদেশের রাজধানী হলো | মর্যাদা শুরু আনুষ্ঠানিক পরিচালক, যা নির্মাণের সাথে দেবী পর্যায়ন করেন। রাজধানী বিশিষ্ট ইতিবাচ্ছিত পরিচালক সময় হলো ফোনে শুরু হতে চেয়ে চেয়ে চেয়ে চেয়ে চেয়েছিল। রাজধানী অবস্থিত খালিকা হলো মর্যাদার রাজধানীর খালিকা। রাজধানী অবস্থ ... |
| বাংলাদেশের প্রধান নদী হলো | সিনামূল্যান্ড গ্রুপ নদী। সিনামূল্যান্ড গ্রুপ নদী ছিলেন যে সিনামূল্যান্ড গ্রুপ নদী ছিলেন ও সিনামূল্যান্ড গ্রুপ নদী ছিলেন নিশ্বনের প্রধান নদী। সিনামূল্যান্ড গ্রুপ নদী ছিলেন যে সিনামূল্যান্ড গ্রুপ নদী ছিলেন ও সিনামূল্যান্ড গ্রুপ নদ ... | |
| Qwen/Qwen3-0.6B | বাংলাদেশের রাজধানী হলো | কোনটি?\n\nবাংলাদেশের রাজধানী হলো মোহাম্মাদ পূর্বাবৃহক। এই জেলায় বিশ্বের বিভিন্ন প্রাচীন জাতীয় শাসকদ্বয় যথা পুরুষ হামীদ এবং গ্রস্ত জীবী আসমান বা মোহাম্মাদ রয়েছে। আসমান এদেশের প্রথম হামীদীয় শাসক, আসমান এর ছোট হামীদীয় উপজেলা ... |
| বাংলাদেশের প্রধান নদী হলো | কী?\nA. সূর্য নদী\nB. দিল্লি নদী\nC. গুম্বার নদী\nD. মহাদেব নদী\nAnswer Choices: (A) A & B only (B) A & C only (C) B & C only (D) All the above\nThe correct answer is:\n\n**D. All the above**\n\nExplanation:\n- **B. দিল্লি নদী** is a river in Bangladesh.\n- **C. গুম্বার নদী** is also a river in Bangladesh.\n- **D. মহাদেব নদী** is a river in India, not Bangladesh.\nSo, all the rivers mentioned (B, C, and D) are in Bangladesh ... | |
| Polygl0t/LilTii-v0.1 | বাংলাদেশের রাজধানী হলো | ঢাকা। কিন্তু এই ঢাকার একটি নাম আছে, যেটির সাথে জড়িয়ে রয়েছে অনেক ইতিহাস ও ঐতিহ্য । ঢাকা বাংলাদেশের সবচেয়ে বড় শহর এবং এটি দক্ষিণ এশিয়ার মধ্যে দ্বিতীয় বৃহত্তম নগরী হিসেবে পরিচিত৷ এর আয়তন ১ লক্ষ ৪৭ হাজার ৫ শত বর্গকিলোমিটার যা প্রায় বাংলাদেশর সমান ৷ এখানে বসবাস করে বিশ্বের বিভিন্ন দেশের মানুষ তবে বেশিরভাগই আসে পৃথিবীর অন্যান্য দেশ থেকে যেমন ভারত পাকিস্তান নেপাল শ্রীলঙ্কা ইত্যাদি দেশগুলো হতে আগত মানুষের সংখ্যা বেশি হয়ে থাকে তাই বলা যায় এদেশে প্রচুর পরিমাণে বিদেশী নাগরিকের আগমন ঘটেছে যারা এদেশের শিক্ষা সংস্কৃতিতে অবদান রেখে চলেছে প্রতিনিয়ত যার ফলে আমাদের দেশে গড়ে উঠেছে অসংখ্য বিশ্ববিদ্যালয় যেখানে উচ্চ শিক্ষার জন্য বিদেশীরা এসে পড়াশোনা করছে আর এজন্যেই হয়তোবা একে ‘বিশ্ববিদ্যালয়’ নামে ডাকা হয় কেননা এখানকার প্রতিটি শিক্ষার্থীর মাঝে মিশে গিয়েছে নিজ মাতৃভাষার প্রতি ভালোবাসা যেটা তাদের একাডেমিক পড়াশোনার ক্ষেত্রে প্রভাব ফেলে বলে আমি মনে করি কারণ তারা জানে বাংলা ভাষাটা কতটা গুরুত্বপূর্ণ একটা বিষয় সেখানে যদি কোনো ... |
| বাংলাদেশের প্রধান নদী হলো | পদ্মা ও ব্রহ্মপুত্র। নদীর উৎপত্তিস্থল হিমালয় পর্বতমালার কৈলাশ শৃঙ্গের কাছে তিব্বতের মানস সরোবর হ্রদ থেকে । আর বাংলাদেশে প্রবেশ করে ফেনী জেলার মুহুরী নামে কুমিল্লা জেলায় এসে তিতাস নাম ধারণ করেছে এই দুই উপনদীই মিলিত হয়ে মেঘনা তৈরি হয়েছে এবং এর প্রবাহে রয়েছে অসংখ্য ছোট-বড় খাল বিল হাওর বাওড় এমনকি গ্রাম নগর জনপদ, শিল্প কারখানা সবই আছে এ নদীতে।। মানচিত্রের মাধ্যমে বাংলাদেশের নদ -নদীর অবস্থান দেখানো হল: ... | |
| Polygl0t/LilTii-v0.2 | বাংলাদেশের রাজধানী হলো | ঢাকা। বাংলাদেশের বিভাগীয় শহরগুলোর মধ্যে অন্যতম হলো খুলনা, রাজশাহী ও চট্রগ্রাম ।\n- বাংলাদেশ এর মোট আয়তনের প্রায় ৫৬ শতাংশই সমুদ্র সমতল থেকে মাত্র ১ মিটার (৩ ফুট) উচ্চতায় অবস্থিত এবং উত্তর পূর্ব অংশ জুড়ে রয়েছে ভারতের সাথে সীমান্ত যা দেশের চার ভাগের একভাগ এলাকা দখল করেছে| অন্য তিন দিকে স্থল বেষ্টিত হওয়ায় এই অংশের ভূপ্রকৃতি মূলত পাহাড়ী অঞ্চলের মত উঁচু নিচু ভূমির উপর গড়ে উঠেছে যেখানে গাছপালা খুব কম ফলে দিনের বেশিরভাগ সময় সূর্যের আলো থাকে না বললেই চলে৷ বঙ্গোপসাগর উপকূলে বিস্তৃত উপকূলীয় বনভূমি আছে যার বেশির ভাগ ম্যানগ্রোভ জাতীয়; এগুলো ঝড় প্রতিরোধ করতে পারে বলে ধারণা করা হয় ৷ সুন্দরবনকে ১৯৮৭ সালে ইউনেস্কো বিশ্ব ঐতিহ্যবাহী স্থান হিসেবে ঘোষণা করে ... |
| বাংলাদেশের প্রধান নদী হলো | পদ্মা। নদীর উৎপত্তি হিমালয় পর্বতে এবং এর দৈর্ঘ্য ১,৫০০ কিলোমিটার (৯৩৫ মা)। এটি বাংলাদেশের উপর দিয়ে প্রবাহিত হয়ে বঙ্গোপসাগরে গিয়ে মিশেছে।[২] পদ্মা ও যমুনার মিলিত প্রবাহ পদ্মার নাম পেয়েছে বলে ধারণা করা হয়; যদিও এই মিলনের সঠিক প্রমাণ পাওয়া যায়নি[৩][৪], তবু পণ্ডিতদের অনুমান এটুকু যে পূর্ব-পশ্চিমদিকে গতিশীল যমুনা ছিল একটি একক বৃহৎ স্রোত যা দক্ষিণ দিকে অগ্রসর হতে হতে গঙ্গা নদীতে এসে পড়েছিল বলেই এটির নামকরণ হয়েছিল 'যমুনা' নামে । অন্যদিকে গ্রিক পুরাণ মতে দেবী রেমেফিসের পুত্রের বংশধর হিসাবে আদিগঙ্গার তীরে গড়ে ওঠা এক আর্য জনজাতির উপনিবেশ থেকে জন্ম নিয়েছিল ‘আর্যান’ বা পুণ্যতোয়া হিসেবে খ্যাত গঙ্গার অপরূপা ধারাটি - যার শাখা প্রশাখার সমন্বয়ে গঠিত হয়েছে বর্তমান কালিন্দী৷ এই দুই ধারার মিলনস্থলটিই আজকের বাংলাদেশে অবস্থিত| বাংলাদেশ অংশে পদ্মায় পানির গড় গভীরতা ৫.৭৮ মিটার অথবা ১৮ ফুটের সামান্য বেশি হলেও ভারত বিভাগের পর থেকেই পলি জমে ক্রমশ তা হ্রাস পেয়ে আসছে – এখন প্রায় ৩ মিঃ অর্থাৎ ১০ ফুট পর্যন্ত নিচে নেমে গেছে ৷ তাই বর্তমানে বর্ষাকালে পানি থাকে মাত্র ৩০০ সেমি.(১ গজ)এর মতো! ফলে তখনকার বিখ্যাত প্রম ... |
Other Comparisons
| NPM (normalized mean) | Bangla MMLU | BoolQ-BN | CommonsenseQA-BN | OpenBookQA-BN | PIQA-BN | ARC Challenge | MMLU | HellaSwag | TruthfulQA MC1 | |
|---|---|---|---|---|---|---|---|---|---|---|
| LilTii v0.2 | 9.63 | 0.26 | 0.61 | 0.32 | 0.32 | 0.61 | 0.26 | 0.27 | 0.32 | 0.25 |
| Qwen2.5-1.5B | 9.36 | 0.35 | 0.67 | 0.23 | 0.3 | 0.53 | 0.23 | 0.31 | 0.29 | 0.29 |
| Qwen2.5-1.5B-Instruct | 8.74 | 0.35 | 0.67 | 0.24 | 0.28 | 0.52 | 0.23 | 0.31 | 0.29 | 0.28 |
| Gemma-3-1b-it | 8.3 | 0.31 | 0.56 | 0.31 | 0.32 | 0.57 | 0.25 | 0.28 | 0.3 | 0.28 |
| Qwen3-0.6B-Base | 8.07 | 0.33 | 0.66 | 0.23 | 0.31 | 0.53 | 0.23 | 0.3 | 0.29 | 0.27 |
| Titulm-llama-3.2-3b-v2.0 | 7.94 | 0.25 | 0.54 | 0.33 | 0.35 | 0.6 | 0.25 | 0.26 | 0.31 | 0.26 |
| Llama-3.2-1B-Instruct | 7.74 | 0.3 | 0.63 | 0.23 | 0.34 | 0.53 | 0.25 | 0.28 | 0.29 | 0.27 |
| Gemma-3-1b-pt | 7.73 | 0.25 | 0.57 | 0.32 | 0.32 | 0.58 | 0.25 | 0.27 | 0.3 | 0.27 |
| Gemma-2-2b | 7.73 | 0.32 | 0.6 | 0.28 | 0.33 | 0.56 | 0.24 | 0.25 | 0.28 | 0.25 |
| Qwen3-0.6B | 6.28 | 0.29 | 0.62 | 0.24 | 0.3 | 0.53 | 0.23 | 0.29 | 0.29 | 0.25 |
| Qwen2.5-0.5B | 6.04 | 0.31 | 0.58 | 0.22 | 0.31 | 0.54 | 0.23 | 0.28 | 0.28 | 0.28 |
| LilTii v0.1 | 5.82 | 0.24 | 0.52 | 0.3 | 0.33 | 0.59 | 0.24 | 0.26 | 0.3 | 0.24 |
| Llama-3.2-1B | 5.71 | 0.28 | 0.57 | 0.23 | 0.32 | 0.53 | 0.24 | 0.28 | 0.29 | 0.28 |
| Qwen2.5-0.5B-Instruct | 5.48 | 0.31 | 0.56 | 0.22 | 0.3 | 0.53 | 0.23 | 0.29 | 0.29 | 0.28 |
| BanglaLLama-3.2-1b-v0.0.1 | 4.28 | 0.26 | 0.53 | 0.24 | 0.31 | 0.53 | 0.24 | 0.27 | 0.29 | 0.28 |
| Titulm-llama-3.2-1b-v2.0 | 4.11 | 0.25 | 0.5 | 0.27 | 0.32 | 0.57 | 0.23 | 0.24 | 0.29 | 0.24 |
| BanglaLLama-3.2-3b-v0.0.3 | 2.86 | 0.33 | 0.54 | 0.2 | 0.29 | 0.5 | 0.24 | 0.25 | 0.26 | 0.24 |
| Goldfish-bengali-1000mb | 2.79 | 0.25 | 0.51 | 0.25 | 0.3 | 0.54 | 0.24 | 0.25 | 0.27 | 0.26 |
Cite as 🤗
@misc{fatimah2026liltii,
title={{LilTii: A 0.6B Bengali Language Model that Outperforms Qwen}},
author={Shiza Fatimah and Aniket Sen and Sophia Falk and Florian Mai and Lucie Flek and Nicholas Kluge Corr{\^e}a},
year={2026},
howpublished={\url{https://hf.co/blog/Polygl0t/liltii}}
}
Aknowlegments
Polyglot is a project funded by the Federal Ministry of Education and Research (BMBF) and the Ministry of Culture and Science of the State of North Rhine-Westphalia (MWK) as part of TRA Sustainable Futures (University of Bonn) and the Excellence Strategy of the federal and state governments.
We also gratefully acknowledge the granted access to the Marvin cluster hosted by University of Bonn along with the support provided by its High Performance Computing & Analytics Lab.
License
LilTii is licensed under the Apache License, Version 2.0. For more details, see the LICENSE file.
- Downloads last month
- 23
Model tree for Polygl0t/LilTii-v0.2
Datasets used to train Polygl0t/LilTii-v0.2
Collection including Polygl0t/LilTii-v0.2
Evaluation results
- Acc on Bangla MMLUtest set bangla_mmlu26.080
- Acc on BoolQ-BNboolq_bn60.640
- Acc on CommonsenseQA-BNcommonsenseqa_bn32.430
- Acc on OpenBookQA-BNopenbookqa_bn32.190
- Acc on PIQA-BNpiqa_bn60.500
- Acc-norm on ARC-Challengearc_challenge_poly_bn26.170
- Acc-norm on HellaSwaghellaswag_poly_bn32.200
- Acc-norm on MMLUmmlu_poly_bn27.060
- bleurt on TruthfulQAtruthfulqa_poly_bn25.480












