LilTii-v0.2

A round logo of a cartoon tiger in a hoodie, cap, and gold chain with the text 'LilTii' below.

Model Summary

LilTii-v0.2 is a decoder-transformer natively pretrained in Bengali and English. LilTii is part of the Polygl0t initiative to advance language models for low-resource languages.

Details

This repository has the source code used to train this model. The full configuration used for training is available in the following config files:

Learning Rate

This model was trained with a linear learning rate (i.e., warmup-stable-decay). Warmup was done over the first 2,000 steps to a peak learning rate of 7e-4, followed by a stable phase until step 98,000 (this revision is named end-of-stable-ckpt), and then a linear decay to 0 for the last 12,000 steps. Checkpoints were saved every 2,500 steps, which equates to approximately 5 billion tokens. The end-of-stable-ckpt can be used for continuing training with a stable learning rate if desired.

The main branch of this repository contains the final checkpoint saved at step 110,000. All other checkpoints are available as separate branches. To load a specific checkpoint, you can use the following code snippet:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_id = "Polygl0t/LilTii-v0.2"
revision = "step-2500"  # Change this to the desired checkpoint branch
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, revision=revision)

Or, you can access all the revisions for the models via the following code snippet:

from huggingface_hub import list_repo_refs
out = list_repo_refs("Polygl0t/LilTii-v0.2")
branches = [b.name for b in out.branches]
print(branches)
Learning Curves

Learning Curves

Gradient Norm (L2)

gradient_statistics_v2

Intended Uses

The primary intended use LilTii is to serve as foundations for research and development involving native Bengali language modeling. Checkpoints saved during training are designed to provide a controlled setting for performing comparative experiments, specifically regarding the effects of active pretraining on the performance of currently available benchmarks. You may also fine-tune and adapt LilTii for deployment if your use follows the Apache 2.0 license. If you decide to use LilTii as a basis for your fine-tuned model, please conduct your own risk and bias assessment.

Out-of-scope Use

  • LilTii is not intended for deployment. It is not an out-of-the-box product and should not be used for human-facing interactions.

  • LilTii is for the Bengali language only and is unsuitable for text generation tasks in other languages.

  • LilTii has not been fine-tuned for downstream tasks.

Basic usage

from transformers import GenerationConfig, TextGenerationPipeline, AutoTokenizer, AutoModelForCausalLM
import torch

# Specify the model and tokenizer
model_id = "Polygl0t/LilTii-v0.2"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)

# Specify the generation parameters as you like
generation_config = GenerationConfig(
    **{
    "do_sample": True,
    "max_new_tokens": 150,
    "renormalize_logits": True,
    "repetition_penalty": 1.2,
    "temperature": 0.1,
    "top_k": 50,
    "top_p": 1.0,
    "use_cache": True, 
  }
)

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
generator = TextGenerationPipeline(model=model, task="text-generation", tokenizer=tokenizer, device=device)

# Generate text
prompt = "বাংলাদেশের রাজধানী হলো"
completion = generator(prompt, generation_config=generation_config)
print(completion[0]['generated_text'])

Limitations

Like almost all other language models trained on large text datasets scraped from the web, the LilTii shows behavior that does not make it an out-of-the-box solution to many real-world applications, especially those requiring factual, reliable, and nontoxic text generation. LilTii is subject to the following:

  • Hallucinations: LilTii can produce content that can be mistaken as true facts, but are misleading or entirely false, i.e., hallucination.

  • Biases and Toxicity: LilTii inherits the social and historical stereotypes from the data used to train it. Given these biases, the model can produce toxic content, i.e., harmful, offensive, or detrimental to individuals, groups, or communities.

  • Language Limitations: LilTii is primarily designed to interact with Bengali. Other languages might challenge its comprehension, leading to potential misinterpretations or errors in response.

  • Repetition and Verbosity: LilTii may get stuck on repetition loops (especially if the repetition penalty during generations is set to a meager value) or produce verbose responses unrelated to the prompt it was given.

Hence, even though LilTii is released with a permissive license, we urge users to perform their risk analysis on them if they intend to use them for real-world applications.

Evaluations

The table below compares our two versions of LilTii against other base models of similar size. The NPM (Normalized Performance Metric) is a metric designed to provide a balanced view of model performance across various tasks, accounting for the inherent difficulty of each task. It normalizes the performance of each model on a given task by comparing it to a baseline performance, which represents a the performance of a random model.

NPM (normalized mean) ARC Challenge HellaSwag MMLU TruthfulQA MC1 Bangla MMLU BoolQ-BN CommonsenseQA-BN OpenBookQA-BN PIQA-BN
LilTii-v0.2 9.63 26.18 32.20 27.06 25.48 26.09 60.65 32.43 32.19 60.50
Qwen3-0.6B-Base 8.07 22.84 28.70 29.79 27.14 32.57 65.74 23.01 30.58 52.72
Qwen2.5-0.5B 6.04 22.93 28.42 28.31 28.17 30.84 57.87 22.11 30.58 53.59
LilTii-v0.1 5.82 23.52 30.31 26.41 24.07 23.95 52.08 30.22 32.80 58.71
🏆 HellaSwag

hellaswag

🏆 PIQA-BN

piqa-bn

🏆 ARC Challenge

arc_challenge

🏆 CommonsenseQA-BN

commonsenseqa-bn

🏆 OpenBookQA-BN

openbookqa-bn

🏆 BoolQ-BN

boolq-bn

🏆 MMLU

mmlu

🏆 TruthfulQA

truthfulqa_mc1

🏆 Bangla MMLU

bangla_mmlu

Aggregate NPM Across Benchmarks

NPM vs Compute

Performance vs Compute

Performance vs Compute

This plot compares the compute requirements (measured as C = 6 * N * D, where N is the number of parameters and D is the number of tokens processed) against the performance of each model (measured by NPM mean). It highlights the trade-offs between model size, training data, and performance. LilTii models are compared against two baseline models: Qwen2.5-0.5B and Qwen3-0.6B-Base, which are state-of-the-art multilingual models.

Text Generation Examples

All models were prompted with the same Bengali prompts, and the generations were produced with the default parameters specified in the generation_config.json of each model. All models were set to generate up to 250 new tokens. LilTii models generally produce more text given their custom tokenizer and vocabulary, which is more adapted to Bengali.

Model Prompt Generated Completion
Qwen/Qwen2.5-0.5B বাংলাদেশের রাজধানী হলো মর্যাদা শুরু আনুষ্ঠানিক পরিচালক, যা নির্মাণের সাথে দেবী পর্যায়ন করেন। রাজধানী বিশিষ্ট ইতিবাচ্ছিত পরিচালক সময় হলো ফোনে শুরু হতে চেয়ে চেয়ে চেয়ে চেয়ে চেয়েছিল। রাজধানী অবস্থিত খালিকা হলো মর্যাদার রাজধানীর খালিকা। রাজধানী অবস্থ ...
বাংলাদেশের প্রধান নদী হলো সিনামূল্যান্ড গ্রুপ নদী। সিনামূল্যান্ড গ্রুপ নদী ছিলেন যে সিনামূল্যান্ড গ্রুপ নদী ছিলেন ও সিনামূল্যান্ড গ্রুপ নদী ছিলেন নিশ্বনের প্রধান নদী। সিনামূল্যান্ড গ্রুপ নদী ছিলেন যে সিনামূল্যান্ড গ্রুপ নদী ছিলেন ও সিনামূল্যান্ড গ্রুপ নদ ...
Qwen/Qwen3-0.6B বাংলাদেশের রাজধানী হলো কোনটি?\n\nবাংলাদেশের রাজধানী হলো মোহাম্মাদ পূর্বাবৃহক। এই জেলায় বিশ্বের বিভিন্ন প্রাচীন জাতীয় শাসকদ্বয় যথা পুরুষ হামীদ এবং গ্রস্ত জীবী আসমান বা মোহাম্মাদ রয়েছে। আসমান এদেশের প্রথম হামীদীয় শাসক, আসমান এর ছোট হামীদীয় উপজেলা ...
বাংলাদেশের প্রধান নদী হলো কী?\nA. সূর্য নদী\nB. দিল্লি নদী\nC. গুম্বার নদী\nD. মহাদেব নদী\nAnswer Choices: (A) A & B only (B) A & C only (C) B & C only (D) All the above\nThe correct answer is:\n\n**D. All the above**\n\nExplanation:\n- **B. দিল্লি নদী** is a river in Bangladesh.\n- **C. গুম্বার নদী** is also a river in Bangladesh.\n- **D. মহাদেব নদী** is a river in India, not Bangladesh.\nSo, all the rivers mentioned (B, C, and D) are in Bangladesh ...
Polygl0t/LilTii-v0.1 বাংলাদেশের রাজধানী হলো ঢাকা। কিন্তু এই ঢাকার একটি নাম আছে, যেটির সাথে জড়িয়ে রয়েছে অনেক ইতিহাস ও ঐতিহ্য । ঢাকা বাংলাদেশের সবচেয়ে বড় শহর এবং এটি দক্ষিণ এশিয়ার মধ্যে দ্বিতীয় বৃহত্তম নগরী হিসেবে পরিচিত৷ এর আয়তন ১ লক্ষ ৪৭ হাজার ৫ শত বর্গকিলোমিটার যা প্রায় বাংলাদেশর সমান ৷ এখানে বসবাস করে বিশ্বের বিভিন্ন দেশের মানুষ তবে বেশিরভাগই আসে পৃথিবীর অন্যান্য দেশ থেকে যেমন ভারত পাকিস্তান নেপাল শ্রীলঙ্কা ইত্যাদি দেশগুলো হতে আগত মানুষের সংখ্যা বেশি হয়ে থাকে তাই বলা যায় এদেশে প্রচুর পরিমাণে বিদেশী নাগরিকের আগমন ঘটেছে যারা এদেশের শিক্ষা সংস্কৃতিতে অবদান রেখে চলেছে প্রতিনিয়ত যার ফলে আমাদের দেশে গড়ে উঠেছে অসংখ্য বিশ্ববিদ্যালয় যেখানে উচ্চ শিক্ষার জন্য বিদেশীরা এসে পড়াশোনা করছে আর এজন্যেই হয়তোবা একে ‘বিশ্ববিদ্যালয়’ নামে ডাকা হয় কেননা এখানকার প্রতিটি শিক্ষার্থীর মাঝে মিশে গিয়েছে নিজ মাতৃভাষার প্রতি ভালোবাসা যেটা তাদের একাডেমিক পড়াশোনার ক্ষেত্রে প্রভাব ফেলে বলে আমি মনে করি কারণ তারা জানে বাংলা ভাষাটা কতটা গুরুত্বপূর্ণ একটা বিষয় সেখানে যদি কোনো ...
বাংলাদেশের প্রধান নদী হলো পদ্মা ও ব্রহ্মপুত্র। নদীর উৎপত্তিস্থল হিমালয় পর্বতমালার কৈলাশ শৃঙ্গের কাছে তিব্বতের মানস সরোবর হ্রদ থেকে । আর বাংলাদেশে প্রবেশ করে ফেনী জেলার মুহুরী নামে কুমিল্লা জেলায় এসে তিতাস নাম ধারণ করেছে এই দুই উপনদীই মিলিত হয়ে মেঘনা তৈরি হয়েছে এবং এর প্রবাহে রয়েছে অসংখ্য ছোট-বড় খাল বিল হাওর বাওড় এমনকি গ্রাম নগর জনপদ, শিল্প কারখানা সবই আছে এ নদীতে।। মানচিত্রের মাধ্যমে বাংলাদেশের নদ -নদীর অবস্থান দেখানো হল: ...
Polygl0t/LilTii-v0.2 বাংলাদেশের রাজধানী হলো ঢাকা। বাংলাদেশের বিভাগীয় শহরগুলোর মধ্যে অন্যতম হলো খুলনা, রাজশাহী ও চট্রগ্রাম ।\n- বাংলাদেশ এর মোট আয়তনের প্রায় ৫৬ শতাংশই সমুদ্র সমতল থেকে মাত্র ১ মিটার (৩ ফুট) উচ্চতায় অবস্থিত এবং উত্তর পূর্ব অংশ জুড়ে রয়েছে ভারতের সাথে সীমান্ত যা দেশের চার ভাগের একভাগ এলাকা দখল করেছে| অন্য তিন দিকে স্থল বেষ্টিত হওয়ায় এই অংশের ভূপ্রকৃতি মূলত পাহাড়ী অঞ্চলের মত উঁচু নিচু ভূমির উপর গড়ে উঠেছে যেখানে গাছপালা খুব কম ফলে দিনের বেশিরভাগ সময় সূর্যের আলো থাকে না বললেই চলে৷ বঙ্গোপসাগর উপকূলে বিস্তৃত উপকূলীয় বনভূমি আছে যার বেশির ভাগ ম্যানগ্রোভ জাতীয়; এগুলো ঝড় প্রতিরোধ করতে পারে বলে ধারণা করা হয় ৷ সুন্দরবনকে ১৯৮৭ সালে ইউনেস্কো বিশ্ব ঐতিহ্যবাহী স্থান হিসেবে ঘোষণা করে ...
বাংলাদেশের প্রধান নদী হলো পদ্মা। নদীর উৎপত্তি হিমালয় পর্বতে এবং এর দৈর্ঘ্য ১,৫০০ কিলোমিটার (৯৩৫ মা)। এটি বাংলাদেশের উপর দিয়ে প্রবাহিত হয়ে বঙ্গোপসাগরে গিয়ে মিশেছে।[২] পদ্মা ও যমুনার মিলিত প্রবাহ পদ্মার নাম পেয়েছে বলে ধারণা করা হয়; যদিও এই মিলনের সঠিক প্রমাণ পাওয়া যায়নি[৩][৪], তবু পণ্ডিতদের অনুমান এটুকু যে পূর্ব-পশ্চিমদিকে গতিশীল যমুনা ছিল একটি একক বৃহৎ স্রোত যা দক্ষিণ দিকে অগ্রসর হতে হতে গঙ্গা নদীতে এসে পড়েছিল বলেই এটির নামকরণ হয়েছিল 'যমুনা' নামে । অন্যদিকে গ্রিক পুরাণ মতে দেবী রেমেফিসের পুত্রের বংশধর হিসাবে আদিগঙ্গার তীরে গড়ে ওঠা এক আর্য জনজাতির উপনিবেশ থেকে জন্ম নিয়েছিল ‘আর্যান’ বা পুণ্যতোয়া হিসেবে খ্যাত গঙ্গার অপরূপা ধারাটি - যার শাখা প্রশাখার সমন্বয়ে গঠিত হয়েছে বর্তমান কালিন্দী৷ এই দুই ধারার মিলনস্থলটিই আজকের বাংলাদেশে অবস্থিত| বাংলাদেশ অংশে পদ্মায় পানির গড় গভীরতা ৫.৭৮ মিটার অথবা ১৮ ফুটের সামান্য বেশি হলেও ভারত বিভাগের পর থেকেই পলি জমে ক্রমশ তা হ্রাস পেয়ে আসছে – এখন প্রায় ৩ মিঃ অর্থাৎ ১০ ফুট পর্যন্ত নিচে নেমে গেছে ৷ তাই বর্তমানে বর্ষাকালে পানি থাকে মাত্র ৩০০ সেমি.(১ গজ)এর মতো! ফলে তখনকার বিখ্যাত প্রম ...
Other Comparisons
NPM (normalized mean) Bangla MMLU BoolQ-BN CommonsenseQA-BN OpenBookQA-BN PIQA-BN ARC Challenge MMLU HellaSwag TruthfulQA MC1
LilTii v0.2 9.63 0.26 0.61 0.32 0.32 0.61 0.26 0.27 0.32 0.25
Qwen2.5-1.5B 9.36 0.35 0.67 0.23 0.3 0.53 0.23 0.31 0.29 0.29
Qwen2.5-1.5B-Instruct 8.74 0.35 0.67 0.24 0.28 0.52 0.23 0.31 0.29 0.28
Gemma-3-1b-it 8.3 0.31 0.56 0.31 0.32 0.57 0.25 0.28 0.3 0.28
Qwen3-0.6B-Base 8.07 0.33 0.66 0.23 0.31 0.53 0.23 0.3 0.29 0.27
Titulm-llama-3.2-3b-v2.0 7.94 0.25 0.54 0.33 0.35 0.6 0.25 0.26 0.31 0.26
Llama-3.2-1B-Instruct 7.74 0.3 0.63 0.23 0.34 0.53 0.25 0.28 0.29 0.27
Gemma-3-1b-pt 7.73 0.25 0.57 0.32 0.32 0.58 0.25 0.27 0.3 0.27
Gemma-2-2b 7.73 0.32 0.6 0.28 0.33 0.56 0.24 0.25 0.28 0.25
Qwen3-0.6B 6.28 0.29 0.62 0.24 0.3 0.53 0.23 0.29 0.29 0.25
Qwen2.5-0.5B 6.04 0.31 0.58 0.22 0.31 0.54 0.23 0.28 0.28 0.28
LilTii v0.1 5.82 0.24 0.52 0.3 0.33 0.59 0.24 0.26 0.3 0.24
Llama-3.2-1B 5.71 0.28 0.57 0.23 0.32 0.53 0.24 0.28 0.29 0.28
Qwen2.5-0.5B-Instruct 5.48 0.31 0.56 0.22 0.3 0.53 0.23 0.29 0.29 0.28
BanglaLLama-3.2-1b-v0.0.1 4.28 0.26 0.53 0.24 0.31 0.53 0.24 0.27 0.29 0.28
Titulm-llama-3.2-1b-v2.0 4.11 0.25 0.5 0.27 0.32 0.57 0.23 0.24 0.29 0.24
BanglaLLama-3.2-3b-v0.0.3 2.86 0.33 0.54 0.2 0.29 0.5 0.24 0.25 0.26 0.24
Goldfish-bengali-1000mb 2.79 0.25 0.51 0.25 0.3 0.54 0.24 0.25 0.27 0.26

Cite as 🤗

@misc{fatimah2026liltii,
  title={{LilTii: A 0.6B Bengali Language Model that Outperforms Qwen}},
  author={Shiza Fatimah and Aniket Sen and Sophia Falk and Florian Mai and Lucie Flek and Nicholas Kluge Corr{\^e}a},
  year={2026},
  howpublished={\url{https://hf.co/blog/Polygl0t/liltii}}
}

Aknowlegments

Polyglot is a project funded by the Federal Ministry of Education and Research (BMBF) and the Ministry of Culture and Science of the State of North Rhine-Westphalia (MWK) as part of TRA Sustainable Futures (University of Bonn) and the Excellence Strategy of the federal and state governments.

We also gratefully acknowledge the granted access to the Marvin cluster hosted by University of Bonn along with the support provided by its High Performance Computing & Analytics Lab.

License

LilTii is licensed under the Apache License, Version 2.0. For more details, see the LICENSE file.

Downloads last month
23
Safetensors
Model size
0.7B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Polygl0t/LilTii-v0.2

Quantizations
1 model

Datasets used to train Polygl0t/LilTii-v0.2

Collection including Polygl0t/LilTii-v0.2

Evaluation results