BharatGen

Param-2-17B

BharatGen presents Param-2-17B-MoE-A2.4B, a large-scale Mixture-of-Experts (MoE) language model designed to deliver high model capacity while retaining the inference efficiency of a much smaller dense model. It uses a Hybrid MoE architecture with 17B total parameters, while activating only 2.4B parameters per token.

The model is pretrained from scratch, with a strong emphasis on linguistic diversity, cultural grounding, and multilingual representation, particularly for Indian languages. It is released as an early post-training checkpoint with advanced capabilities including reasoning, tool calling, mathematics, and code generation, making it suitable for diverse downstream applications and further fine-tuning.


๐ŸŒŸ Key Highlights

  • 17B parameter Mixture of Experts (MoE) language model
  • Multilingual: English, Hindi + 21 Indian languages
  • Trained on ~22 trillion tokens across two pretraining phases
  • Uses 64 specialized experts, dynamically activated per token
  • Supports long-context understanding (up to 4096 tokens)
  • Efficient inference: Only 2.4B active parameters per token
  • Advanced Capabilities: Thinking & Reasoning, Tool Calling, Mathematics, Code Generation
  • Designed for diverse downstream applications and further fine-tuning

๐Ÿ—ฃ๏ธ Supported Languages

In addition to English and Hindi, the model supports the following 21 Indian languages:

๐ŸŒ Languages
Assamese โ€ข Bengali โ€ข Bodo
Dogri โ€ข Gujarati โ€ข Kannada
Konkani โ€ข Kashmiri โ€ข Maithili
Malayalam โ€ข Manipuri โ€ข Marathi
Nepali โ€ข Oriya โ€ข Punjabi
Sanskrit โ€ข Santali โ€ข Sindhi
Tamil โ€ข Telugu โ€ข Urdu

This broad language coverage enables stronger performance on region-specific tasks and promotes inclusive representation of Indiaโ€™s diverse and underrepresented linguistic communities.


๐Ÿ—๏ธ Model Architecture

The model utilizes a Hybrid MoE approach. Unlike traditional MoE models, this architecture uses a combination of Shared Experts (always active) and Routed Experts (activated selectively) to ensure both general knowledge stability and specialized task performance.

Metric Value
Architecture Hybrid MoE
Total Parameters 17B
Active Parameters/Token 2.4B
Total Experts 64
Top-K Experts 6
Shared Experts 2
Hidden Size 2048
Intermediate Size 7168
Max Context Length 4096 tokens
Vocabulary Size 128,000
Activation Function SiLU
Normalization RMSNorm
Num. Hidden Layers 21
Attention Heads 32 (Query) / 8 (KV)
Attention Mechanism Grouped Query Attention
Precision bf16-mixed

Architecture Innovation

Our Hybrid MoE architecture introduces two key innovations: (1) a dense layer before sparse MoE layers that transforms raw inputs into structured representations for improved stability, and (2) Two shared routing experts that remain always active alongside 6 dynamically routed experts. The shared experts specifically address Indian language diversity by maintaining stable cross-lingual representations, enabling smooth code-switching, and facilitating knowledge transfer across all 23 supported languages.


โœจ Key Features

  • Multilingual-First Design: Pretrained to support English, Hindi, and 21 Indian languages with better regional linguistic coverage.
  • Shared + Routed Experts: Separates general language understanding from language-specific specialization for improved multilingual performance.
  • Efficient Sparse Scaling: 17B total parameters with 2.4B active parameters per token, enabling high capacity with efficient inference.
  • Cross-Lingual Representation Learning: Improves performance on low-resource Indian languages through shared multilingual knowledge.
  • Large-Scale Multilingual Pretraining: Trained on ~22 trillion tokens emphasizing linguistic diversity and culturally grounded data.
  • Long-Context Multilingual Processing: Supports up to 4096 tokens for improved understanding of long-form and multi-turn content. (A longer-context variant of this model, supporting up to 128k context length, will be released soon.)

๐Ÿ“š Training Data

Dataset Composition

PT-1: Pre-Training Phase 1

Data Type Tokens
English 8.5T
Hindi 998.6B
Math 374.8B
Code 1.83T
Multilingual Indian Languages 1.5T
Technical 500B
Instruction 351B
Total Phase 1 14.05T

PT-2: Pre-Training Phase 2

Data Type Tokens
English 2.5T
Math 773B
Code 2.46T
Multilingual Indian Languages 1T
Instruction 740B
Reasoning 607B
Total Phase 2 8.08T

Combined Total Training Data: 22.13 Trillion Tokens


๐ŸŽฏ Pre-Training Details

  • Total Training Tokens: ~22 Trillion
  • Data Quality: Highly curated using 22 Indian language quality classifiers along with an in-house preprocessing pipeline.
  • Scheduler: Cosine Annealing
  • Training Framework: NVIDIA NeMo
  • Hardware: NVIDIA H100 GPUs
  • Total Training Duration: 24 Days
  • Precision: bf16-mixed

๐ŸŒ Environmental Impact

Carbon Emissions

Training large-scale foundation models requires substantial computational resources. In the interest of transparency and responsible AI development, we provide an estimated carbon footprint of our training process. Training Configuration

Metric Value
Total GPU Hours 576 Hours
Hardware Used NVIDIA H100 GPUs
Estimated Power Usage ~258,048 kWh (approximate)
Carbon Footprint ~194 metric tons COโ‚‚eq

Note:

  • Energy estimation is based on GPU TDP with a 25% infrastructure overhead.
  • Carbon intensity reflects the India national grid average (0.75 kg COโ‚‚eq/kWh).
  • Actual emissions may vary depending on data center efficiency (PUE), renewable energy mix, and workload utilization.
  • Calculations follow standard ML COโ‚‚ estimation practices and are aligned with methodologies used in ML COโ‚‚ Impact reporting.

Efficiency Measures

  • Sparse Activation: Only 2.4B out of 17B parameters are activated per token, reducing computational overhead during inference
  • Efficient Architecture: Hybrid MoE design optimizes compute-to-performance ratio
  • Multi-Phase Training: Structured training phases ensure efficient use of computational resources

๐Ÿš€ Model Inference

Requirements:

  • Transformers version - 4.52.3
  • Support for Transformers v5 coming soon
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
from parsers import parse_model_output

model_name = "bharatgenai/Param2-17B-A2.4B-Thinking"

tokenizer = AutoTokenizer.from_pretrained(
    model_name,
    trust_remote_code=False
)

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    trust_remote_code=True,
    device_map="auto"
)

conversation = [
    {"role": "system", "content": "You are helpful assistant."},
    {"role": "user", "content": "What is the BharatGen Mission?"}
]

inputs = tokenizer.apply_chat_template(
    conversation=conversation,
    return_tensors="pt",
    add_generation_prompt=True
).to(model.device)

with torch.no_grad():
    output = model.generate(
        inputs,
        max_new_tokens=300,
        do_sample=True,
        top_k=50,
        top_p=0.9,
        temperature=0.7,
        eos_token_id=tokenizer.eos_token_id,
        use_cache=False,
    )

generated_tokens = output[0][inputs.shape[-1]:]

# ๐Ÿ”ฅ IMPORTANT: skip_special_tokens=False
generated_text = tokenizer.decode(
    generated_tokens,
    skip_special_tokens=False
)

parsed = parse_model_output(generated_text)

print("\n========== RAW ==========\n", generated_text)
print("\n========== REASONING ==========\n", parsed["reasoning"])
print("\n========== TOOL CALLS ==========\n", parsed["tool_calls"])
print("\n========== FINAL ANSWER ==========\n", parsed["final_answer"])

Note: The parser is available within the model directory. You may download and customize it according to your use case.


โœ… Quick Guide for Best Results

Use Deterministic Decoding for Consistency

Set do_sample = False to get stable, repeatable, and more reliable outputs. This is recommended for evaluations, production use, and structured tasks.

Prompt Tuning is Essential

Clearly specify the task, format, and constraints in your prompt. Well-structured instructions significantly improve accuracy and relevance for specific use cases.

Leverage Strong Structured Output Capabilities

The model performs well at generating Markdown, tables, JSON, and other structured formats, making it ideal for documentation, reports, and formatted outputs.


๐ŸŒŸ Model Capabilities & Examples

๐Ÿงฎ Example: Mathematical Reasoning (Chain-of-Thought)

Prompt

A class has 30 students.

The average score of the whole class in a test is 70. The average score of the top 10 students is 85. The average score of the bottom 10 students is 50.

๐Ÿ‘‰ What is the average score of the middle 10 students?

Model Response

๐Ÿง  Click to view Reasoning Process

<think>

Ahh.. Thinking about the problem..

Okay, let's see. The problem is about a class of 30 students. The average score of the whole class is 70. The top 10 students have an average of 85, and the bottom 10 have an average of 50. We need to find the average score of the middle 10 students.

First, I need to recall that the average score is the total sum of all scores divided by the number of students. So, for the entire class, the total sum of scores would be 30 students multiplied by 70, which is 2100. That makes sense because average is sum divided by number.

Now, the top 10 students have an average of 85. So their total sum would be 10 times 85, which is 850. Similarly, the bottom 10 students have an average of 50, so their total sum is 10 times 50, which is 500.

But here's the thing: the class is divided into three groupsโ€”top, middle, and bottom. Each group has 10 students. So, the total sum of all three groups should equal the total sum of the entire class. That is, 850 (top) + sum of middle 10 + 500 (bottom) = 2100.

To find the sum of the middle 10 students, we subtract the top and bottom sums from the total. Let's compute that: 2100 minus 850 minus 500. That would be 2100 - 850 = 1250, then 1250 - 500 = 750. So the middle 10 students have a total sum of 750.

Now, to find their average, we take that sum and divide it by the number of students in the middle group, which is 10. So 750 divided by 10 equals 75. Therefore, the average score of the middle 10 students is 75.

Wait, let me check my math again to make sure.

Total class sum: 30 * 70 = 2100. Correct.

Top 10 sum: 10 * 85 = 850. Bottom 10 sum: 10 * 50 = 500. Adding those: 850 + 500 = 1350.

Subtracting that from the total: 2100 - 1350 = 750. Divided by 10 students: 750 / 10 = 75. Yep, that seems right.

I don't think there's any overlap here because the top and bottom groups are separate, and the middle group is the remaining 10. So this should be straightforward. So the answer is 75.

Hmm, but just to think again, sometimes in these problems, there might be some trick where the middle group is not exactly 10 students, but in this case, the problem states the class has 30 students, divided into top 10, middle 10, bottom 10. So they add up to 30. So each is 10. Therefore, the logic holds. So the average of the middle 10 is 75. So I think that's the answer. </think>

The class has 30 students with an average score of 70. The total sum of all scores is (30 \times 70 = 2100).

The top 10 students have an average score of 85, giving a total of (10 \times 85 = 850). The bottom 10 students have an average score of 50, giving a total of (10 \times 50 = 500).

Subtracting the top and bottom sums from the total gives the middle 10 students' total: (2100 - 850 - 500 = 750).

Dividing this by 10 students gives the average score of the middle 10 students: (\frac{750}{10} = 75).

The average score of the middle 10 students is (\boxed{75}).


๐Ÿ‡ฎ๐Ÿ‡ณ Example: Multilingual Coding (Telugu)

Prompt

Write a binary search program in Python. All comments in the code must be written in Telugu language.

Model Response

๐Ÿ Click to view Reasoning Process

<think>

Reasoning

User binary search เฐ•เฑ‹เฐธเฐ‚ Python program เฐ•เฑ‹เฐฐเฐพเฐฐเฑ. Comments เฐ…เฐจเฑเฐจเฐฟ Telugu เฐฒเฑ‹ เฐ‰เฐ‚เฐกเฐพเฐฒเฐฟ. Binary search เฐธเฐพเฐงเฐพเฐฐเฐฃ algorithm, array, low, high, mid. Telugu เฐฒเฑ‹ เฐตเฐฟเฐตเฐฐเฐฃเฐฒเฑ เฐ‡เฐตเฑเฐตเฐพเฐฒเฐฟ. Code เฐฒเฑ‹ comments Telugu เฐฒเฑ‹ เฐ‰เฐ‚เฐกเฐพเฐฒเฐฟ, code logic correct เฐ‰เฐ‚เฐกเฐพเฐฒเฐฟ. Python เฐฒเฑ‹ function name in English, comments Telugu. </think>

def binary_search(arr, target):
    # เฐˆ เฐซเฐ‚เฐ•เฑเฐทเฐจเฑ เฐฒเฐ•เฑเฐทเฑเฐฏ เฐตเฐฟเฐฒเฑเฐตเฐจเฑ เฐ•เฐจเฑเฐ—เฑเฐ•เฑ‹เฐตเฐกเฐพเฐจเฐฟเฐ•เฐฟ binary search เฐจเฑ เฐ…เฐฎเฐฒเฑ เฐšเฑ‡เฐธเฑเฐคเฑเฐ‚เฐฆเฐฟ
    low = 0
    high = len(arr) - 1
    
    while low <= high:
        mid = (low + high) // 2
        
        # เฐฎเฐงเฑเฐฏ เฐตเฐฟเฐฒเฑเฐตเฐจเฑ เฐชเฐฐเฐฟเฐถเฑ€เฐฒเฐฟเฐธเฑเฐคเฐพเฐฎเฑ
        if arr[mid] == target:
            # เฐฒเฐ•เฑเฐทเฑเฐฏ เฐตเฐฟเฐฒเฑเฐตเฐจเฑ เฐ•เฐจเฑเฐ—เฑŠเฐจเฑเฐจเฐพเฐ‚, เฐฆเฐพเฐจเฐฟ index เฐจเฑ เฐคเฐฟเฐฐเฐฟเฐ—เฐฟ เฐ‡เฐธเฑเฐคเฐพเฐ‚
            return mid
        elif arr[mid] < target:
            # เฐฒเฐ•เฑเฐทเฑเฐฏ เฐตเฐฟเฐฒเฑเฐต เฐชเฑ†เฐฆเฑเฐฆเฐฆเฐฟ, เฐ•เฐพเฐฌเฐŸเฑเฐŸเฐฟ low เฐจเฑ เฐชเฑ†เฐ‚เฐšเฑเฐคเฐพเฐ‚
            low = mid + 1
        else:
            # target เฐšเฐฟเฐจเฑเฐจเฐฆเฐฟ, เฐ•เฐพเฐฌเฐŸเฑเฐŸเฐฟ high เฐจเฑ เฐคเฐ—เฑเฐ—เฐฟเฐธเฑเฐคเฐพเฐ‚
            high = mid - 1
            
    # เฐฒเฐ•เฑเฐทเฑเฐฏ เฐตเฐฟเฐฒเฑเฐต เฐฒเฑ‡เฐฆเฑ, -1 เฐจเฑ เฐคเฐฟเฐฐเฐฟเฐ—เฐฟ เฐ‡เฐธเฑเฐคเฐพเฐ‚
    return -1

# เฐ‰เฐฆเฐพเฐนเฐฐเฐฃ เฐตเฐฟเฐจเฐฟเฐฏเฑ‹เฐ—เฐ‚
arr = [2, 3, 5, 7, 11, 13]
target = 7
result = binary_search(arr, target)
print(f"เฐฒเฐ•เฑเฐทเฑเฐฏ เฐตเฐฟเฐฒเฑเฐต {target} เฐฏเฑŠเฐ•เฑเฐ• index: {result}")

๐ŸŒ Example: Multilingual Cultural Question (Hindi)

Prompt

เคญเคพเคฐเคค เค…เคชเคจเฅ€ เคตเคฟเคตเคฟเคง เคธเค‚เคธเฅเค•เฅƒเคคเคฟ เค•เฅ‡ เคฒเคฟเค เคœเคพเคจเคพ เคœเคพเคคเคพ เคนเฅˆเฅค เคญเคพเคฐเคค เคฎเฅ‡เค‚ เค…เคฒเค—-เค…เคฒเค— เคฐเคพเคœเฅเคฏเฅ‹เค‚ เค•เฅ€ เคญเคพเคทเคพเคเค, เคญเฅ‹เคœเคจ เค”เคฐ เคคเฅเคฏเฅ‹เคนเคพเคฐ เค•เฅเคฏเฅ‹เค‚ เค…เคฒเค— เคนเฅ‹เคคเฅ‡ เคนเฅˆเค‚? เค‡เคธ เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เคตเคฟเคตเคฟเคงเคคเคพ เค•เคพ เคญเคพเคฐเคคเฅ€เคฏ เคธเคฎเคพเคœ เคชเคฐ เค•เฅเคฏเคพ เคธเค•เคพเคฐเคพเคคเฅเคฎเค• เคชเฅเคฐเคญเคพเคต เคชเคกเคผเคคเคพ เคนเฅˆ?

Model Response

๐Ÿ’ญ Click to view Reasoning Process

<think>

เคชเฅเคฐเคถเฅเคจ เค•เฅ€ เคธเคฎเค

เค‰เคชเคฏเฅ‹เค—เค•เคฐเฅเคคเคพ เคจเฅ‡ เคญเคพเคฐเคค เค•เฅ€ เคตเคฟเคตเคฟเคง เคธเค‚เคธเฅเค•เฅƒเคคเคฟ เค•เฅ‡ เค•เคพเคฐเคฃ เคฐเคพเคœเฅเคฏโ€‘เคตเคฟเคถเคฟเคทเฅเคŸ เคญเคพเคทเคพเค“เค‚, เคญเฅ‹เคœเคจ เค”เคฐ เคคเฅเคฏเฅ‹เคนเคพเคฐเฅ‹เค‚ เคฎเฅ‡เค‚ เค…เค‚เคคเคฐ เค•เฅ‡ เคฌเคพเคฐเฅ‡ เคฎเฅ‡เค‚ เคชเฅ‚เค›เคพ เคนเฅˆ เคคเคฅเคพ เค‡เคธ เคตเคฟเคตเคฟเคงเคคเคพ เค•เฅ‡ เคธเคพเคฎเคพเคœเคฟเค• เคชเฅเคฐเคญเคพเคต เคชเคฐ เคšเคฐเฅเคšเคพ เคšเคพเคนเคคเคพ เคนเฅˆเฅค เค‡เคธเคฒเคฟเค เค‰เคคเฅเคคเคฐ เคฎเฅ‡เค‚ เคฆเฅ‹ เคญเคพเค— เคšเคพเคนเคฟเค: (1) เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เคตเคฟเคตเคฟเคงเคคเคพ เค•เฅ‡ เค•เคพเคฐเคฃเฅ‹เค‚ เค•เคพ เคธเฅเคชเคทเฅเคŸเฅ€เค•เคฐเคฃ, (2) เค‡เคธ เคตเคฟเคตเคฟเคงเคคเคพ เค•เฅ‡ เคธเค•เคพเคฐเคพเคคเฅเคฎเค• เคชเฅเคฐเคญเคพเคตเฅ‹เค‚ เค•เฅ€ เคธเฅ‚เคšเฅ€เฅค

เคฎเฅเค–เฅเคฏ เค•เคพเคฐเคฃเฅ‹เค‚ เค•เฅ€ เคชเคนเคšเคพเคจ

  1. เคญเฅŒเค—เฅ‹เคฒเคฟเค• เคตเคฟเคตเคฟเคงเคคเคพ โ€“ เคชเคนเคพเคกเคผ, เคฎเฅˆเคฆเคพเคจ, เคธเคฎเฅเคฆเฅเคฐ เคคเคŸ, เคฐเฅ‡เค—เคฟเคธเฅเคคเคพเคจ เค†เคฆเคฟ เคตเคฟเคญเคฟเคจเฅเคจ เคœเคฒเคตเคพเคฏเฅ เค”เคฐ เคธเฅเคฅเคฒ เคฌเคจเคพเคคเฅ‡ เคนเฅˆเค‚, เคœเคฟเคธเคธเฅ‡ เค…เคฒเค—โ€‘เค…เคฒเค— เค•เฅƒเคทเคฟโ€‘เค‰เคคเฅเคชเคพเคฆเคจ เค”เคฐ เค–เคพเคฆเฅเคฏโ€‘เคชเฅเคฐเคฃเคพเคฒเฅ€ เคตเคฟเค•เคธเคฟเคค เคนเฅ‹เคคเฅ€ เคนเฅˆเฅค
  2. เคœเคจเคœเคพเคคเฅ€เคฏ เคเคตเค‚ เคญเคพเคทเคพ เคตเคฟเคตเคฟเคงเคคเคพ โ€“ เคตเคฟเคญเคฟเคจเฅเคจ เคœเคจเคœเคพเคคเฅ€เคฏ เคธเคฎเฅ‚เคน, เค‰เคจเค•เฅ‡ เคฎเฅ‚เคฒ เคญเคพเคทเคพเคเค, เคฒเคฟเคชเคฟเคฏเคพเค เค”เคฐ เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เคชเคฐเคฎเฅเคชเคฐเคพเคเค เคฐเคพเคœเฅเคฏโ€‘เคธเฅเคคเคฐ เคชเคฐ เคญเคพเคทเคพ เค•เคพ เคชเฅเคฐเคฏเฅ‹เค— เคจเคฟเคฐเฅเคงเคพเคฐเคฟเคค เค•เคฐเคคเฅ€ เคนเฅˆเค‚เฅค
  3. เคเคคเคฟเคนเคพเคธเคฟเค• เคเคตเค‚ เคฐเคพเคœเคจเฅˆเคคเคฟเค• เคชเฅเคฐเคญเคพเคต โ€“ เคตเคฟเคญเคฟเคจเฅเคจ เคฐเคพเคœเคตเค‚เคถ, เค‰เคชเคจเคฟเคตเฅ‡เคถ, เค”เคฐ เคธเฅเคตเคคเค‚เคคเฅเคฐเคคเคพ เค•เฅ‡ เคฌเคพเคฆ เค•เฅ‡ เคฐเคพเคœเฅเคฏโ€‘เคจเคฟเคฐเฅเคฎเคพเคฃ เคจเฅ‡ เคชเฅเคฐเคถเคพเคธเคจเคฟเค• เคธเฅ€เคฎเคพเคเค เค”เคฐ เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เคชเคนเคšเคพเคจ เค•เฅ‹ เค…เคฒเค— เค•เคฟเคฏเคพเฅค
  4. เคงเคฐเฅเคฎ เค”เคฐ เค‰เคคเฅเคธเคต เคชเคฐเค‚เคชเคฐเคพ โ€“ เคชเฅเคฐเคคเฅเคฏเฅ‡เค• เค•เฅเคทเฅ‡เคคเฅเคฐ เคฎเฅ‡เค‚ เคชเฅเคฐเคฎเฅเค– เคงเคฐเฅเคฎ (เคนเคฟเค‚เคฆเฅ‚, เคฎเฅเคธเฅเคฒเคฟเคฎ, เคธเคฟเค–, เคฌเฅŒเคฆเฅเคง เค†เคฆเคฟ) เค”เคฐ เค‰เคจเค•เฅ‡ เคธเฅเคฅเคพเคจเฅ€เคฏ เค‰เคคเฅเคธเคต, เคฐเฅ€เคคเคฟโ€‘เคฐเคฟเคตเคพเคœ เค…เคฒเค—โ€‘เค…เคฒเค— เคตเคฟเค•เคธเคฟเคค เคนเฅ‹เคคเฅ‡ เคนเฅˆเค‚เฅค
  5. เคธเฅเคฅเคพเคจเฅ€เคฏ เคธเค‚เคธเคพเคงเคจ เคเคตเค‚ เคชเคฐเคฎเฅเคชเคฐเคพเคเค โ€“ เคชเฅเคฐเคพเค•เฅƒเคคเคฟเค• เคธเค‚เคธเคพเคงเคจ (เคœเฅˆเคธเฅ‡ เคœเคฒ, เค–เคจเคฟเคœ, เคธเคฎเฅเคฆเฅเคฐ) เค”เคฐ เคธเฅเคฅเคพเคจเฅ€เคฏ เค•เคพเคฐเฅ€เค—เคฐ, เคนเคธเฅเคคเคถเคฟเคฒเฅเคช เค†เคฆเคฟ เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เค…เคญเคฟเคตเฅเคฏเค•เฅเคคเคฟ เค•เฅ‹ เค†เค•เคพเคฐ เคฆเฅ‡เคคเฅ‡ เคนเฅˆเค‚เฅค

เค‰เคคเฅเคคเคฐ เค•เคพ เคขเคพเค‚เคšเคพ เคคเคฏ เค•เคฐเคจเคพ

  • เคชเคนเคฒเฅ‡ เค•เคพเคฐเคฃเฅ‹เค‚ เค•เฅ‹ เค•เฅเคฐเคฎเคฌเคฆเฅเคง เคฌเคฟเค‚เคฆเฅเค“เค‚ เคฎเฅ‡เค‚ เคชเฅเคฐเคธเฅเคคเฅเคค เค•เคฐเฅ‡เค‚, เคœเคฟเคธเคธเฅ‡ เค‰เคชเคฏเฅ‹เค—เค•เคฐเฅเคคเคพ เค•เฅ‹ เคธเฅเคชเคทเฅเคŸ เคธเคฎเค เคฎเคฟเคฒเฅ‡เฅค
  • เคซเคฟเคฐ เคชเฅเคฐเคคเฅเคฏเฅ‡เค• เค•เคพเคฐเคฃ เค•เฅ‡ เคฌเคพเคฆ เคคเคคเฅเค•เคพเคฒ เคชเคฐเคฟเคฃเคพเคฎ (เคญเคพเคทเคพเคเค, เคญเฅ‹เคœเคจ, เคคเฅเคฏเฅ‹เคนเคพเคฐ) เค•เฅ‹ เคธเค‚เค•เฅเคทเคฟเคชเฅเคค เคฐเฅ‚เคช เคฎเฅ‡เค‚ เคœเฅ‹เคกเคผเฅ‡เค‚, เคœเฅˆเคธเคพ เค•เคฟ เคธเค‚เคฆเคฐเฅเคญ เค‰เคคเฅเคคเคฐ เคฎเฅ‡เค‚ เค•เคฟเคฏเคพ เค—เคฏเคพ เคนเฅˆเฅค
  • เค…เค‚เคค เคฎเฅ‡เค‚ เคธเคพเคฎเคพเคœเคฟเค• เคชเฅเคฐเคญเคพเคต เค•เฅ‹ เคชเคพเคเคš เคชเฅเคฐเคฎเฅเค– เคฌเคฟเค‚เคฆเฅเค“เค‚ เคฎเฅ‡เค‚ เคตเคฟเคญเคพเคœเคฟเคค เค•เคฐเฅ‡เค‚, เคชเฅเคฐเคคเฅเคฏเฅ‡เค• เคฌเคฟเค‚เคฆเฅ เค•เฅ‹ เค…เคฒเค—โ€‘เค…เคฒเค— เค‰เคชโ€‘เคฌเคฟเค‚เคฆเฅ เค•เฅ‡ เคธเคพเคฅ เคตเคฟเคธเฅเคคเฅƒเคค เค•เคฐเฅ‡เค‚, เค”เคฐ เค…เค‚เคค เคฎเฅ‡เค‚ เคเค• เคธเคฎเค—เฅเคฐ เคจเคฟเคทเฅเค•เคฐเฅเคท เคฆเฅ‡เค‚ เคœเฅ‹ เคตเคฟเคตเคฟเคงเคคเคพ เค•เฅ‹ เคเค•เคคเคพ เค•เฅ‡ เคธเคพเคฅ เคœเฅ‹เคกเคผเฅ‡เฅค

เคธเค•เคพเคฐเคพเคคเฅเคฎเค• เคชเฅเคฐเคญเคพเคตเฅ‹เค‚ เค•เฅ€ เคธเฅ‚เคšเฅ€ เคฌเคจเคพเคจเคพ

  1. เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เค…เคญเคฟเคตเฅเคฏเค•เฅเคคเคฟ โ€“ เคตเคฟเคตเคฟเคงเคคเคพ เค•เฅ‡ เค•เคพเคฐเคฃ เคตเคฟเคญเคฟเคจเฅเคจ เค•เคฒเคพ, เคธเค‚เค—เฅ€เคค, เคจเฅƒเคคเฅเคฏ, เคธเคพเคนเคฟเคคเฅเคฏ เค†เคฆเคฟ เค•เคพ เคตเคฟเค•เคพเคธเฅค
  2. เค†เคฐเฅเคฅเคฟเค• เคชเฅเคฐเคญเคพเคต โ€“ เคชเคฐเฅเคฏเคŸเคจ, เคนเคธเฅเคคเคถเคฟเคฒเฅเคช, เคธเฅเคฅเคพเคจเฅ€เคฏ เคฌเคพเคœเคพเคฐเฅ‹เค‚ เค•เฅ€ เคตเคฟเคตเคฟเคงเคคเคพ, เคœเคฟเคธเคธเฅ‡ เค†เคฏ เค‰เคคเฅเคชเคจเฅเคจ เคนเฅ‹เคคเฅ€ เคนเฅˆเฅค
  3. เคถเคฟเค•เฅเคทเคพ เคเคตเค‚ เค…เคจเฅเคธเค‚เคงเคพเคจ โ€“ เคตเคฟเคญเคฟเคจเฅเคจ เคญเคพเคทเคพโ€‘เคธเคพเคนเคฟเคคเฅเคฏ, เค‡เคคเคฟเคนเคพเคธ, เคธเคพเคฎเคพเคœเคฟเค• เคตเคฟเคœเฅเคžเคพเคจ เค•เฅ‡ เค…เคงเฅเคฏเคฏเคจ เค•เฅ‡ เค…เคตเคธเคฐเฅค
  4. เคตเฅˆเคถเฅเคตเคฟเค• เคฎเค‚เคš เคชเคฐ เคชเคนเคšเคพเคจ โ€“ เค…เค‚เคคเคฐเคฐเคพเคทเฅเคŸเฅเคฐเฅ€เคฏ เคฎเค‚เคš เคชเคฐ เคตเคฟเคตเคฟเคง เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เค‰เคคเฅเคชเคพเคฆเฅ‹เค‚ เค•เคพ เคชเฅเคฐเคฆเคฐเฅเคถเคจ, เคœเคฟเคธเคธเฅ‡ เคญเคพเคฐเคค เค•เฅ€ เค›เคตเคฟ เคฎเคœเคฌเฅ‚เคค เคนเฅ‹เคคเฅ€ เคนเฅˆเฅค
  5. เคธเคพเคฎเคพเคœเคฟเค• เคฎเฅ‚เคฒเฅเคฏ เคเคตเค‚ เคธเคนเคฟเคทเฅเคฃเฅเคคเคพ โ€“ เคตเคฟเคตเคฟเคงเคคเคพ เค•เฅ‡ เคฎเคพเคงเฅเคฏเคฎ เคธเฅ‡ เคตเคฟเคญเคฟเคจเฅเคจ เคงเคฐเฅเคฎ, เคœเคพเคคเฅ€เคฏ เคธเคฎเฅ‚เคนเฅ‹เค‚ เค•เฅ‡ เคฌเฅ€เคš เคธเคนเคฟเคทเฅเคฃเฅเคคเคพ เค”เคฐ เคธเคนเคฏเฅ‹เค— เค•เคพ เคตเคฟเค•เคพเคธเฅค

เค‰เคคเฅเคคเคฐ เค•เคพ เคธเฅเคตเคฐ เค”เคฐ เคถเฅˆเคฒเฅ€

เคธเค‚เคฆเคฐเฅเคญ เค‰เคคเฅเคคเคฐ เคฎเฅ‡เค‚ เคธเคฐเคฒ, เคฌเคฟเค‚เคฆเฅโ€‘เค†เคงเคพเคฐเคฟเคค เคถเฅˆเคฒเฅ€ เคนเฅˆ, เคชเฅเคฐเคคเฅเคฏเฅ‡เค• เคฌเคฟเค‚เคฆเฅ เค•เฅ‹ เคฌเฅ‹เคฒเฅเคก เคถเฅ€เคฐเฅเคทเค• เค•เฅ‡ เคธเคพเคฅ เคชเฅเคฐเคธเฅเคคเฅเคค เค•เคฟเคฏเคพ เค—เคฏเคพ เคนเฅˆเฅค เค‡เคธเคฒเคฟเค เค‡เคธเฅ€ เคถเฅˆเคฒเฅ€ เค•เฅ‹ เค…เคชเคจเคพเคคเฅ‡ เคนเฅเค, เค•เคพเคฐเคฃเฅ‹เค‚ เค•เฅ‹ เค•เฅเคฐเคฎเคพเค‚เค•เคฟเคค เคธเฅ‚เคšเฅ€ เคฎเฅ‡เค‚ เคฒเคฟเค–เฅ‡เค‚ เค”เคฐ เคชเฅเคฐเคญเคพเคตเฅ‹เค‚ เค•เฅ‹ เคญเฅ€ เคธเคฎเคพเคจ เคฐเฅ‚เคช เคฎเฅ‡เค‚ เคชเฅเคฐเคธเฅเคคเฅเคค เค•เคฐเฅ‡เค‚เฅค เคฏเคน เค‰เคชเคฏเฅ‹เค—เค•เคฐเฅเคคเคพ เค•เฅ€ เค…เคจเฅเคฐเฅ‹เคง เค•เฅ‡ เค…เคจเฅเคธเคพเคฐ เค‰เคคเฅเคคเคฐ เค•เฅ‹ เคธเฅเคชเคทเฅเคŸ, เคธเค‚เค—เค เคฟเคค เค”เคฐ เคธเค•เคพเคฐเคพเคคเฅเคฎเค• เคฌเคจเคพเคคเคพ เคนเฅˆเฅค

เค…เค‚เคคเคฟเคฎ เคฐเฅ‚เคชเคฐเฅ‡เค–เคพ

  • เคชเคฐเคฟเคšเคฏเคพเคคเฅเคฎเค• เคตเคพเค•เฅเคฏ: โ€œเคญเคพเคฐเคค เค…เคชเคจเฅ€ เคตเคฟเคตเคฟเคง เคธเค‚เคธเฅเค•เฅƒเคคเคฟ เค•เฅ‡ เคฒเคฟเค เคœเคพเคจเคพ เคœเคพเคคเคพ เคนเฅˆ, เค‡เคธเคฒเคฟเค เคชเฅเคฐเคคเฅเคฏเฅ‡เค• เคฐเคพเคœเฅเคฏ เคฎเฅ‡เค‚ เค…เคฒเค—โ€‘เค…เคฒเค— เคญเคพเคทเคพเคเค, เคญเฅ‹เคœเคจ เค”เคฐ เคคเฅเคฏเฅ‹เคนเคพเคฐ เคนเฅ‹เคคเฅ‡ เคนเฅˆเค‚เฅคโ€
  • เค•เคพเคฐเคฃเฅ‹เค‚ เค•เฅ€ เคธเฅ‚เคšเฅ€ (1โ€‘5) เค”เคฐ เค‰เคจเค•เฅ‡ เคคเฅเคฐเค‚เคค เคชเฅเคฐเคญเคพเคตเฅค
  • เคธเค•เคพเคฐเคพเคคเฅเคฎเค• เคชเฅเคฐเคญเคพเคตเฅ‹เค‚ เค•เฅ€ เคธเฅ‚เคšเฅ€ (1โ€‘5) เค•เฅ‡ เคธเคพเคฅ เคตเคฟเคธเฅเคคเฅƒเคค เคฌเคฟเค‚เคฆเฅเฅค
  • เคจเคฟเคทเฅเค•เคฐเฅเคท: เคตเคฟเคตเคฟเคงเคคเคพ เคเค•เคคเคพ เค•เฅ‡ เคธเคพเคฅ เคธเคฎเฅƒเคฆเฅเคงเคฟ เคฒเคพเคคเฅ€ เคนเฅˆเฅค

เคฏเคน เคธเฅ‹เคš เคชเฅเคฐเค•เฅเคฐเคฟเคฏเคพ เคธเฅ€เคงเฅ‡ เคธเค‚เคฆเคฐเฅเคญ เค‰เคคเฅเคคเคฐ เค•เฅ€ เคธเคพเคฎเค—เฅเคฐเฅ€ เค”เคฐ เคธเค‚เคฐเคšเคจเคพ เค•เฅ€ เค“เคฐ เคฒเฅ‡ เคœเคพเคคเฅ€ เคนเฅˆ, เคœเคฟเคธเคธเฅ‡ เคตเคนเฅ€ เค‰เคคเฅเคคเคฐ เค‰เคคเฅเคชเคจเฅเคจ เคนเฅ‹เค—เคพเฅค </think>

เคญเคพเคฐเคค เค…เคชเคจเฅ€ เคตเคฟเคตเคฟเคง เคธเค‚เคธเฅเค•เฅƒเคคเคฟ เค•เฅ‡ เคฒเคฟเค เคœเคพเคจเคพ เคœเคพเคคเคพ เคนเฅˆ, เค‡เคธเคฒเคฟเค เคชเฅเคฐเคคเฅเคฏเฅ‡เค• เคฐเคพเคœเฅเคฏ เคฎเฅ‡เค‚ เค…เคฒเค—- เค…เคฒเค— เคญเคพเคทเคพเคเค, เคญเฅ‹เคœเคจ เค”เคฐ เคคเฅเคฏเฅ‹เคนเคพเคฐ เคนเฅ‹เคคเฅ‡ เคนเฅˆเค‚เฅค

  1. เคญเคฟเคจเฅเคจ เคญเฅŒเค—เฅ‹เคฒเคฟเค• เคธเฅเคฅเคฟเคคเคฟ เค”เคฐ เคœเคฒเคตเคพเคฏเฅ เคญเคพเคฐเคค เคฎเฅ‡เค‚ เคชเคนเคพเคกเคผ, เคฎเฅˆเคฆเคพเคจ, เคœเค‚เค—เคฒ, เคธเคฎเฅเคฆเฅเคฐ เคคเคŸ เค”เคฐ เคฐเฅ‡เค—เคฟเคธเฅเคคเคพเคจ เคœเฅˆเคธเฅ‡ เคตเคฟเคตเคฟเคง เคญเฅ‚-เคญเคพเค— เคนเฅˆเค‚เฅค เค‡เคธเคฒเคฟเค เคชเฅเคฐเคคเฅเคฏเฅ‡เค• เคฐเคพเคœเฅเคฏ เคฎเฅ‡เค‚ เค…เคฒเค—-เค…เคฒเค— เคœเคฒเคตเคพเคฏเฅ เคนเฅˆ เค”เคฐ เค…เคฒเค—-เค…เคฒเค— เค•เฅƒเคทเคฟ เค‰เคคเฅเคชเคพเคฆเคจ เคนเฅ‹เคคเคพ เคนเฅˆเฅค เคฏเคน เค…เคฒเค—-เค…เคฒเค— เคญเฅ‹เคœเคจ เค”เคฐ เค–เคพเคจเฅ‡ เค•เฅ€ เคชเคฐเค‚เคชเคฐเคพเค“เค‚ เค•เฅ‹ เคœเคจเฅเคฎ เคฆเฅ‡เคคเคพ เคนเฅˆเฅค

  2. เคญเคพเคทเคพเค“เค‚ เค”เคฐ เคœเคพเคคเฅ€เคฏ เคตเคฟเคตเคฟเคงเคคเคพ เคญเคพเคฐเคค เคฎเฅ‡เค‚ เคตเคฟเคตเคฟเคง เคœเคพเคคเฅ€เคฏ เคธเคฎเฅ‚เคน เค”เคฐ เคญเคพเคทเคพเคเค เคนเฅˆเค‚เฅค เคชเฅเคฐเคคเฅเคฏเฅ‡เค• เคฐเคพเคœเฅเคฏ เคฎเฅ‡เค‚ เค…เคชเคจเฅ€ เคญเคพเคทเคพ เคนเฅˆ, เคœเฅ‹ เค‰เคธ เคฐเคพเคœเฅเคฏ เค•เฅ€ เคชเคนเคšเคพเคจ เคนเฅˆเฅค เคญเคพเคทเคพ เค•เฅ‡ เค•เคพเคฐเคฃ เค…เคฒเค—-เค…เคฒเค— เคธเคพเคนเคฟเคคเฅเคฏ, เค—เฅ€เคค เค”เคฐ เค•เคนเคพเคจเคฟเคฏเคพเค เคนเฅ‹เคคเฅ€ เคนเฅˆเค‚เฅค

  3. เคเคคเคฟเคนเคพเคธเคฟเค• เค”เคฐ เคฐเคพเคœเคจเฅ€เคคเคฟเค• เคชเฅเคฐเคญเคพเคต เคญเคพเคฐเคค เคฎเฅ‡เค‚ เคตเคฟเคญเคฟเคจเฅเคจ เคฐเคพเคœเคตเค‚เคถ, เค‰เคชเคจเคฟเคตเฅ‡เคถ เค”เคฐ เคฐเคพเคœเฅเคฏ เคฅเฅ‡เฅค เคชเฅเคฐเคคเฅเคฏเฅ‡เค• เคฐเคพเคœเฅเคฏ เคฎเฅ‡เค‚ เค…เคชเคจเฅ€ เคชเฅเคฐเคถเคพเคธเคจเคฟเค• เค”เคฐ เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เคชเคฐเค‚เคชเคฐเคพเคเค เคฅเฅ€เค‚เฅค เค‡เคธ เค•เคพเคฐเคฃ เคญเฅ‹เคœเคจ, เคคเฅเคฏเฅ‹เคนเคพเคฐ เค”เคฐ เคฐเฅ€เคคเคฟ-เคฐเคฟเคตเคพเคœเคผ เค…เคฒเค—-เค…เคฒเค— เคนเฅ‹ เค—เคเฅค

  4. เคงเคฐเฅเคฎ เค”เคฐ เคคเฅเคฏเฅ‹เคนเคพเคฐ เคชเคฐเค‚เคชเคฐเคพ เคญเคพเคฐเคค เคฎเฅ‡เค‚ เคตเคฟเคญเคฟเคจเฅเคจ เคงเคฐเฅเคฎ เคนเฅˆเค‚, เคœเฅˆเคธเฅ‡ เคนเคฟเค‚เคฆเฅ‚, เคฎเฅเคธเฅเคฒเคฟเคฎ, เคธเคฟเค–, เคฌเฅŒเคฆเฅเคง เค†เคฆเคฟเฅค เคชเฅเคฐเคคเฅเคฏเฅ‡เค• เคงเคฐเฅเคฎ เค•เคพ เค…เคชเคจเคพ เคคเฅเคฏเฅ‹เคนเคพเคฐ เคนเฅ‹เคคเคพ เคนเฅˆ เค”เคฐ เค…เคฒเค—-เค…เคฒเค— เคฐเฅ€เคคเคฟ-เคฐเคฟเคตเคพเคœเคผ เคนเฅ‹เคคเฅ‡ เคนเฅˆเค‚เฅค

  5. เคญเฅ‹เคœเคจ เค”เคฐ เคคเฅเคฏเฅ‹เคนเคพเคฐ เค•เฅ‡ เค•เคพเคฐเคฃ เค…เคฒเค—-เค…เคฒเค— เคธเค‚เคธเฅเค•เฅƒเคคเคฟ เคชเฅเคฐเคคเฅเคฏเฅ‡เค• เคฐเคพเคœเฅเคฏ เคฎเฅ‡เค‚ เค…เคฒเค—-เค…เคฒเค— เคญเฅ‹เคœเคจ เค”เคฐ เคคเฅเคฏเฅ‹เคนเคพเคฐ เคนเฅ‹เคคเฅ‡ เคนเฅˆเค‚, เคœเฅ‹ เค‰เคธ เคฐเคพเคœเฅเคฏ เค•เฅ€ เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เคชเคนเคšเคพเคจ เคนเฅˆเฅค

เคญเคพเคฐเคคเฅ€เคฏ เคธเคฎเคพเคœ เคชเคฐ เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เคตเคฟเคตเคฟเคงเคคเคพ เค•เคพ เคธเค•เคพเคฐเคพเคคเฅเคฎเค• เคชเฅเคฐเคญเคพเคต

  1. เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เค…เคญเคฟเคตเฅเคฏเค•เฅเคคเคฟ เคตเคฟเคตเคฟเคงเคคเคพ เค•เฅ‡ เค•เคพเคฐเคฃ เคญเคพเคฐเคค เคฎเฅ‡เค‚ เคตเคฟเคญเคฟเคจเฅเคจ เค•เคฒเคพ, เคธเค‚เค—เฅ€เคค, เคจเฅƒเคคเฅเคฏ เค”เคฐ เคธเคพเคนเคฟเคคเฅเคฏ เค•เคพ เคตเคฟเค•เคพเคธ เคนเฅเค†เฅค เคฏเคน เคญเคพเคฐเคค เค•เฅ‹ เคเค• เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เคถเค•เฅเคคเคฟ เคฌเคจเคพเคคเคพ เคนเฅˆเฅค

  2. เค†เคฐเฅเคฅเคฟเค• เคชเฅเคฐเคญเคพเคต เคตเคฟเคตเคฟเคงเคคเคพ เค•เฅ‡ เค•เคพเคฐเคฃ เคญเคพเคฐเคค เคฎเฅ‡เค‚ เคชเคฐเฅเคฏเคŸเคจ, เคนเคธเฅเคคเคถเคฟเคฒเฅเคช เค”เคฐ เคธเฅเคฅเคพเคจเฅ€เคฏ เคฌเคพเคœเคพเคฐเฅ‹เค‚ เค•เฅ€ เคตเคฟเคตเคฟเคงเคคเคพ เคนเฅˆเฅค เคฏเคน เค†เคฏ เค”เคฐ เคฐเฅ‹เคœเค—เคพเคฐ เค•เคพ เคธเฅเคฐเฅ‹เคค เคฌเคจเคคเคพ เคนเฅˆเฅค

  3. เคถเคฟเค•เฅเคทเคพ เค”เคฐ เค…เคจเฅเคธเค‚เคงเคพเคจ เคตเคฟเคตเคฟเคงเคคเคพ เค•เฅ‡ เค•เคพเคฐเคฃ เคญเคพเคฐเคค เคฎเฅ‡เค‚ เคตเคฟเคญเคฟเคจเฅเคจ เคญเคพเคทเคพเค“เค‚, เคธเคพเคนเคฟเคคเฅเคฏ, เค‡เคคเคฟเคนเคพเคธ เค”เคฐ เคธเคพเคฎเคพเคœเคฟเค• เคตเคฟเคœเฅเคžเคพเคจ เค•เคพ เค…เคงเฅเคฏเคฏเคจ เคนเฅ‹เคคเคพ เคนเฅˆเฅค เคฏเคน เคญเคพเคฐเคคเฅ€เคฏ เคถเคฟเค•เฅเคทเคพ เคชเฅเคฐเคฃเคพเคฒเฅ€ เค•เฅ‹ เคฎเคœเคฌเฅ‚เคค เคฌเคจเคพเคคเคพ เคนเฅˆเฅค

  4. เคตเฅˆเคถเฅเคตเคฟเค• เคฎเค‚เคš เคชเคฐ เคชเคนเคšเคพเคจ เคตเคฟเคตเคฟเคงเคคเคพ เค•เฅ‡ เค•เคพเคฐเคฃ เคญเคพเคฐเคค เคฎเฅ‡เค‚ เคตเคฟเคญเคฟเคจเฅเคจ เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เค‰เคคเฅเคชเคพเคฆ เคตเฅˆเคถเฅเคตเคฟเค• เคฎเค‚เคš เคชเคฐ เคฆเคฟเค–เคพเคˆ เคฆเฅ‡เคคเฅ‡ เคนเฅˆเค‚เฅค เคฏเคน เคญเคพเคฐเคค เค•เฅ€ เค›เคตเคฟ เค•เฅ‹ เคฎเคœเคฌเฅ‚เคค เคฌเคจเคพเคคเคพ เคนเฅˆเฅค

  5. เคธเคพเคฎเคพเคœเคฟเค• เคฎเฅ‚เคฒเฅเคฏ เค”เคฐ เคธเคนเคฟเคทเฅเคฃเฅเคคเคพ เคตเคฟเคตเคฟเคงเคคเคพ เค•เฅ‡ เค•เคพเคฐเคฃ เคญเคพเคฐเคค เคฎเฅ‡เค‚ เคตเคฟเคญเคฟเคจเฅเคจ เคงเคฐเฅเคฎ, เคœเคพเคคเฅ€เคฏ เคธเคฎเฅ‚เคน เค”เคฐ เคญเคพเคทเคพเคเค เคนเฅˆเค‚เฅค เคฏเคน เคธเคนเคฟเคทเฅเคฃเฅเคคเคพ เค”เคฐ เคธเคพเคฎเคพเคœเคฟเค• เคธเคนเคฏเฅ‹เค— เค•เคพ เคตเคฟเค•เคพเคธ เค•เคฐเคคเคพ เคนเฅˆเฅค

เค‡เคธ เคชเฅเคฐเค•เคพเคฐ, เคญเคพเคฐเคค เค•เฅ€ เคธเคพเค‚เคธเฅเค•เฅƒเคคเคฟเค• เคตเคฟเคตเคฟเคงเคคเคพ เคเค• เคธเค•เคพเคฐเคพเคคเฅเคฎเค• เคชเฅเคฐเคญเคพเคต เคนเฅˆ, เคœเฅ‹ เคเค•เคคเคพ เค•เฅ‡ เคธเคพเคฅ เคธเคฎเฅƒเคฆเฅเคงเคฟ เค”เคฐ เคชเคนเคšเคพเคจ เค•เฅ‹ เคตเคฟเค•เคธเคฟเคค เค•เคฐเคคเคพ เคนเฅˆเฅค


๐Ÿ“Š Benchmarks

Our model has been evaluated across multiple benchmark categories to assess its capabilities in different domains. All results are reported as zero-shot performance unless otherwise specified.


๐ŸŒ General English Benchmarks

Performance on fundamental language understanding and reasoning tasks:

Task Param-2-17B-A2.4B Qwen1.5-MoE-A2.7B DeepSeek-R1-Distill-Qwen-14B DeepSeek-V2-Lite gpt-oss-20b
ARC Challenge 56.83 44.03 53.75 45.31 48.98
ARC Easy 77.69 68.9 74.75 70.41 75.51
HellaSwag 77.43 77.26 79.04 73.53 57.8
SQuADv2 33.86 13.96 23.77 25.2 8.66
MMLU 57.79 62.22 73.05 46.57 66.37

๐Ÿ’ป Code, Math & Reasoning Benchmarks

Performance on specialized reasoning, mathematical problem-solving, and code generation:

Task Param-2-17B-A2.4B Qwen1.5-MoE-A2.7B DeepSeek-R1-Distill-Qwen-14B DeepSeek-V2-Lite gpt-oss-20b
GSM8K 57.32 61.49 87.87 38.21 36.54
MathQA 40.23 35.61 48.44 38.73 36.68
HumanEval 36.59 33.54 26.22 26.83 24.39
MBPP 47 38.6 61 26.6 -

๐Ÿ“ Instruction Following Benchmarks

Evaluation of instruction comprehension and task execution capabilities:

Task Param-2-17B-A2.4B Qwen1.5-MoE-A2.7B DeepSeek-R1-Distill-Qwen-14B DeepSeek-V2-Lite gpt-oss-20b
TriviaQA 54.64 38 17.88 34.62 29.05
LogiQA 52.35 31.18 33.49 29.34 32.87
WinoGrande 67.96 69.22 72.69 67.01 67.48
TruthfulQA 46.42 43.57 58.63 28.89 52.93
IFEval 34.05 13.19 51.8 12.75 31.42

๐Ÿ‡ฎ๐Ÿ‡ณ Indic Language Benchmarks

Performance on Indian language understanding and culturally grounded tasks:

Task Param-2-17B-A2.4B Qwen1.5-MoE-A2.7B DeepSeek-R1-Distill-Qwen-14B DeepSeek-V2-Lite gpt-oss-20b
Sanskriti 66.54 28.71 74.58 64.84 75.14
ARC Challenge (Indic) 36.37 21.71 23.63 21.76 31.55
TriviaQA (Indic MCQ) 72.95 25.21 53.99 29.18 71.67
Indic BoolQ 75.98 46.48 70.03 62.9 70.02
HellaSwag Hi 49.63 25.86 39.02 30.23 41.25
MMLU Hi 59.23 33.27 44.52 24.26 50.29

Note: ARC Challenge (Indic) and TriviaQA (Indic MCQ) scores are macro-averaged across 10 Indian languages:
bn (Bengali), gu (Gujarati), hi (Hindi), kn (Kannada), ml (Malayalam), mr (Marathi), or (Odia), pa (Punjabi), ta (Tamil), te (Telugu).


Notes:

  • All benchmarks reflect zero-shot performance unless noted
  • PT = Early Pretrained Checkpoint
  • Evaluation pipeline follows standard LM Evaluation Harness protocols
  • All models have been tested with thinking=false

โš™๏ธ Intended Use

This is an early post-training checkpoint is designed for:

  • Research and Development: Investigating MoE architectures and multilingual language models
  • Downstream Fine-Tuning: Building task-specific models for Indian language applications
  • Academic Research: Studying cross-lingual transfer and low-resource language modeling
  • Application Development: Creating culturally-aware AI applications for Indian markets
  • Community Innovation: Enabling the open-source community to build India-specific use cases

Recommended Use Cases

  • Multilingual chatbots and conversational AI
  • Content generation in Indian languages
  • Cross-lingual information retrieval
  • Educational tools for Indian language learning
  • Document understanding and summarization
  • Cultural and regional knowledge applications

โš ๏ธ Limitations

Technical Limitations

  • Hardware Requirements: Despite sparse activation, the 17B total parameters require significant VRAM (approximately 34GB+ in bfloat16) to load the full model
  • Context Window: Optimized for 4096 tokens; performance may degrade on extremely long-form documents beyond this limit

Model Limitations

  • No Guardrails: The model has not undergone RLHF or other alignment procedures
  • Potential Biases: May contain biases present in the training data
  • Language Imbalance: Performance may vary across different Indian languages based on data availability
  • Not Production-Ready: Requires fine-tuning and safety evaluation before production deployment

๐Ÿ”’ Responsible AI & Safety

Important Considerations

  1. Base Model Status: This is an early post-training checkpoint that requires additional fine-tuning and safety alignment before production use.

  2. Data Sources and Artifacts: Training data includes content crawled from the internet, which may contain inherited artifacts, biases, or inaccuracies.

  3. No Safety Alignment: The model has not undergone comprehensive safety training and may generate:

    • Biased or stereotypical content
    • Factually incorrect information
    • Potentially harmful or offensive text
  4. Deployment Requirements: Organizations deploying this model must:

    • Implement appropriate content filtering and safety measures
    • Conduct thorough testing for their specific use case
    • Monitor outputs for quality and safety
    • Comply with applicable legal and ethical guidelines
  5. Community Responsibility: Users are expected to:

    • Use the model ethically and responsibly
    • Avoid malicious applications
    • Report issues and contribute to model improvement
    • Credit the authors as per licensing terms

๐Ÿค Acknowledgement & Collaboration

A Home-Grown Effort

This work represents a bottom-up initiative to develop large language models from scratch within India with limited resources. It reflects our humble, resource-constrained journey to contribute meaningfully to the open-source AI ecosystem and foster collaboration within the broader community.

Community Collaboration

We welcome contributions and open dialogue:

  • Share feedback and report issues
  • Collaborate on improvements and extensions
  • Contribute to dataset curation and evaluation
  • Build innovative applications on top of this foundation

Future versions will introduce better alignment, improved training scale, and more curated datasets. Together, we aim to evolve toward safer and more capable AI systems.


๐Ÿ“œ License

This pretrained checkpoint is released under the BharatGen non-commercial license.

Please refer to the LICENSE file for detailed terms and conditions.


Contact

For any questions or feedback, please contact:

Downloads last month
85
Safetensors
Model size
17B params
Tensor type
BF16
ยท
Inference Providers NEW
This model isn't deployed by any Inference Provider. ๐Ÿ™‹ Ask for provider support