⚖️ ԻՐԱՎԱԿԱՆ ԾԱՆՈՒՑՈՒՄ / LEGAL NOTICE

Սույն մոդելն ուղղակի կամ անուղղակի կերպով ներբեռնելով, օգտագործելով կամ տարածելով՝ Դուք անվերապահորեն ընդունում եք ԼԻՑԵՆԶԻԱՅԻ պայմանները։ Դուք ստանձնում եք օգտագործման հետ կապված ողջ և միանձնյա պատասխանատվությունը՝ գիտակցելով, որ մոդելը կարող է գեներացնել սխալ, վնասակար կամ ապակողմնորոշող բովանդակություն։

By directly or indirectly downloading, using, or distributing this model, you unequivocally accept the terms in the LICENSE file. You assume full and sole liability for all risks associated with its use, acknowledging that the model may generate inaccurate, harmful, or misleading content.

12 հունվարի 2026 թ. / January 12, 2026

🌐 Scroll down for the English version.


ArmenianGPT v1.0․ Աշխարհում առաջին՝ հայերեն տրամաբանող, բաց կշիռներով մոդելը

Նախագծի հեղինակ՝ Ալեքսանդր Բաղրամյան


Այս մոդելն աշխատում է անմիջապես Ձեր սարքի վրա, և Ձեր տվյալները երբեք ոչ մի տեղ չեն ուղարկվում։

Ի՞նչ է սա և ինչի՞ համար է

Այս մոդելը հազարավոր անգամներ փոքր է OpenAI-ի GPT-ի նման կոմերցիոն մոդելներից և ստեղծված չէ նրանց հետ մրցակցելու համար։ Դրա հիմնական նպատակն է հայալեզու համայնքին տրամադրել հայերենով տրամաբանող առաջին բաց կշիռներով (open-weight) մոդելը՝ խթանելով Հայաստանում մեծ լեզվական մոդելների (LLM) էկոհամակարգի զարգացումը։

Ի՞նչ է նշանակում «տրամաբանող մոդել» Ի տարբերություն այն մոդելների, որոնք պարզապես վերարտադրում են անգիր արած տեղեկություն, տրամաբանող մոդելը կարողանում է վերլուծել տեքստի կառուցվածքը և կատարել հետևություններ՝ հիմնվելով բացառապես տրված համատեքստի վրա։ Այն ոչ թե պարզապես վերարտադրում է փաստեր, այլ իմաստավորում է դրանք։

Ամենահեշտ մեկնարկը՝ LM Studio-ի միջոցով

Եթե ծանոթ չեք ծրագրավորմանը, ապա այս մոդելը Ձեր համակարգչում գործարկելու ամենահարմար տարբերակը LM Studio անվճար ծրագիրն է։

  • Ներբեռնեք ծրագիրը և որոնման դաշտում գտեք մոդելը՝ ArmGPT/ArmenianGPT-1.0-3B։
  • Ներբեռնեք Ձեր համակարգչին համապատասխան տարբերակը։ Անխափան աշխատանքի համար խորհուրդ է տրվում ունենալ նշված ծավալի ազատ օպերատիվ հիշողություն (RAM)․
    • F16: Ամենաբարձր որակի տարբերակը (~8 ԳԲ)։
    • Q8_0: Որակի և ֆայլի չափի գերազանց հարաբերակցություն (~4 ԳԲ)։
    • Q4_K_M: 4-բիթային քվանտավորմամբ տարբերակներից լավագույնը (~2.5 ԳԲ), օպտիմալ ընտրություն է ավելի թույլ համակարգիչների համար։
  • Նշում տեսաքարտի (GPU) մասին։ Եթե ունեք հզոր տեսաքարտ, LM Studio-ն ավտոմատ կերպով կօգտագործի դրա հիշողությունը (VRAM)՝ ապահովելով զգալիորեն ավելի բարձր արագություն։ Նշված ԳԲ-երը վերաբերում են կա՛մ համակարգչի RAM-ին, կա՛մ տեսաքարտի VRAM-ին։
  • Անցեք զրուցարան (💬), ընտրեք մոդելը և սկսեք զրուցել։
  • Հիշեցում։ Այս տարբերակում մոդելը չի հիշում զրույցի ընթացքը։ Յուրաքանչյուր հարց ընկալվում է որպես նոր զրույց։

💡 Խորհուրդ՝ Temperature պարամետրի օգտագործման Փորձարկե՛ք այս արժեքը՝ մոդելի պատասխանները ձեր նպատակին հարմարեցնելու համար։ Թեև 0.12-ի պես ցածր արժեքը լավ սկիզբ է ճշգրիտ պատասխանների համար, այն ոչ բոլոր դեպքերում է օպտիմալ։

  • Ցածր Temperature (օր.՝ 0.12): Նվազեցնում է պատահականությունը։ Օգտագործե՛ք ճշգրիտ խնդիրների համար (Q&A, ամփոփում), որտեղ պահանջվում է կանխատեսելի և փաստերի վրա հիմնված արդյունք։
  • Բարձր Temperature (օր.՝ 0.72): Ավելացնում է ստեղծագործականությունը։ Օգտագործե՛ք ստեղծագործական առաջադրանքների համար (մտագրոհ, նոր գաղափարների գեներացում)՝ ավելի բազմազան և յուրօրինակ պատասխաններ ստանալու համար։

Գործնական կիրառություն

Չնայած իր համեստ չափերին՝ ArmenianGPT-ն առաջարկում է գործնական կիրառությունների լայն շրջանակ՝ հատկապես այն իրավիճակներում, որտեղ տվյալների գաղտնիությունն ու անվտանգությունն առաջնահերթ են։

  • Բացարձակ գաղտնիություն և անվտանգություն։ Քանի որ մոդելն աշխատում է լոկալ (offline), Ձեր զգայուն տվյալները՝ լինեն դրանք անձնական նամակներ, թե կոմերցիոն փաստաթղթեր, երբեք չեն լքում Ձեր համակարգիչը։
  • Փաստաթղթերի հետ խելացի աշխատանք (Q&A)։ Վերբեռնեք ցանկացած տեքստային փաստաթուղթ (օրինակ՝ պայմանագիր, գիտական հոդված, զեկույց) և մոդելին ուղղեք հարցեր՝ բացառապես դրա բովանդակության վերաբերյալ։ Սա թույլ է տալիս արագ գտնել անհրաժեշտ տեղեկատվությունը մեծածավալ տեքստերում։
  • Տեքստերի արագ ամփոփում։ Ստացեք երկար հոդվածների, հետազոտությունների կամ նամակագրության հակիրճ բովանդակությունը՝ վայրկյանների ընթացքում խնայելով Ձեր ժամանակը։
  • Թարգմանություն և լեզվական աջակցություն։ Թեև մասնագիտացված թարգմանչական մոդել չէ, ArmenianGPT-ն կարող է օգնել հասկանալ անգլերեն կամ ռուսերեն տեքստերի հիմնական իմաստը՝ դրանք թարգմանելով հայերեն։ Սա հատկապես օգտակար է օտարալեզու նորություններ կամ նամակներ արագ ըմբռնելու համար։
  • Տեքստերի ստեղծում և վերաշարադրում։ Օգտագործեք մոդելը նամակների սևագրեր կազմելու, տեքստերն այլ ոճով վերաշարադրելու, բարդ գաղափարները պարզեցնելու կամ ստեղծագործական մտքեր գեներացնելու համար։

Ընթացիկ հնարավորություններ և ապագա զարգացումներ

Սա մոդելի առաջին տարբերակն է, որը նախատեսվում է շարունակաբար բարելավել։

Այս տարբերակը դեռևս չունի հետևյալ հնարավորությունները՝

  • Զրույցի հիշողություն: Մոդելը չի հիշում նախորդ հարցուպատասխանը։
  • Համակարգային հրահանգներ (System Prompts) կիրառելու կարողություն:

Հետագա տարբերակներում նախատեսվում է ավելացնել վերոնշյալ ֆունկցիաները, ինչպես նաև տեսողական ընկալման (Vision) կարողություններ՝ նկարների իմաստավորում, տեքստի ճանաչում (OCR) և այլն։

Ծրագրավորողների համար

Դուք կարող եք օգտագործել այս մոդելը առցանց և անվճար Google Colab-ի միջոցով՝ օգտագործելով հետևյալ կոդը։ Կարևոր է։ Թեև կոդն օգտագործում է զրույցի կառուցվածք, մոդելի այս տարբերակը չի հիշում նախորդ հարցուպատասխանը։

# Նախապես տեղադրեք անհրաժեշտ գրադարանները
import os, re
if "COLAB_" not in "".join(os.environ.keys()):
    !pip install unsloth
else:
    import torch; v = re.match(r"[0-9]{1,}\.[0-9]{1,}", str(torch.__version__)).group(0)
    xformers = "xformers==" + ("0.0.33.post1" if v=="2.9" else "0.0.32.post2" if v=="2.8" else "0.0.29.post3")
    !pip install --no-deps bitsandbytes accelerate {xformers} peft trl triton cut_cross_entropy unsloth_zoo
    !pip install sentencepiece protobuf "datasets==4.3.0" "huggingface_hub>=0.34.0" hf_transfer pandas
    !pip install --no-deps unsloth
!pip install git+https://github.com/huggingface/transformers.git@bf3f0ae70d0e902efab4b8517fce88f6697636ce
!pip install --no-deps trl==0.22.2

from unsloth import FastLanguageModel
import torch

max_seq_length = 12999
dtype = None
load_in_4bit = False

# Բեռնում ենք մոդելն ու թոքենայզերը
model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = "ArmGPT/ArmenianGPT-1.0-3B",
    max_seq_length = max_seq_length,
    dtype = dtype,
    load_in_4bit = load_in_4bit,
)

from transformers import TextStreamer

# Կազմում ենք հարցումը՝ օգտագործելով զրույցի ձևաչափը
messages = [
    {
        "role": "user",
        "content": [
            {"type": "text", "text": "Ո՞վ ես։"}
        ]
    }
]

# Հարմարեցնում ենք մուտքային տվյալները մոդելի համար
inputs = tokenizer.apply_chat_template(
    messages,
    tokenize = True,
    add_generation_prompt = True,
    return_tensors = "pt",
).to("cuda")

text_streamer = TextStreamer(tokenizer, skip_prompt = True)

_ = model.generate(
    input_ids = inputs,
    streamer = text_streamer,
    max_new_tokens = 12999,

    # Temperature-ը կառավարում է պատահականությունը։ Ցածր արժեքները (օր.՝ 0.12) պատասխանը դարձնում են ավելի կենտրոնացված և կանխատեսելի, 
    # իսկ բարձր արժեքները (օր.՝ 0.72)՝ ավելի ստեղծագործական։ Փորձարկե՛ք՝ լավագույն արդյունքի համար։
    temperature = 0.12,

    top_p = 0.95,
    repetition_penalty = 1.1,
    eos_token_id = tokenizer.eos_token_id,
)

Գնահատում (Benchmarking)

Այս պահին մոդելի արդյունավետության համապարփակ գնահատում (benchmarking) դեռ չի իրականացվել, քանի որ միջազգային չափորոշիչ թեստերը նախ պետք է որակյալ թարգմանվեն և հարմարեցվեն հայերենին։ Արդյունքները կհրապարակվեն աշխատանքներն ավարտելուն պես։

Հետևե՛ք մեզ և կիսվե՛ք կարծիքով

Մենք կարևորում ենք համայնքի հետ կապը և ողջունում ձեր մասնակցությունը։ Հաջորդ թողարկումների և նորությունների մասին առաջինը տեղեկանալու համար միացե՛ք մեր Տելեգրամյան ալիքին։ Իսկ եթե նկատել եք սխալներ, ունեք հարցեր կամ առաջարկներ, կարող եք դրանք ներկայացնել Hugging Face-ի մեր էջի «Discussions» (Քննարկումներ) բաժնում։

Լիցենզավորում

Այս նախագիծը հրապարակվում է «բաց կշիռների» (open-weight) մոդելով։ Մոդելի կշիռները (weights) տրամադրվում են միայն անձնական, ոչ կոմերցիոն օգտագործման համար։

Ածանցյալ աշխատանքներ (Derivative Works) Սույն ԼԻՑԵՆԶԻԱՅԻ ոչ կոմերցիոն սահմանափակումները տարածվում են ոչ միայն բնօրինակ մոդելի, այլև դրա հիման վրա ստեղծված ցանկացած ածանցյալ աշխատանքի վրա։ Ցանկացած ածանցյալ աշխատանք պետք է տարածվի նույն՝ բնօրինակ ԼԻՑԵՆԶԻԱՅԻ պայմաններով՝ առանց դրա սահմանափակումները մեղմացնելու։


ArmenianGPT v1.0: The First Open-Weight Model that Reasons in Armenian

Project Author: Aleksandr Baghramyan


This model runs directly on your device, and your data is never sent anywhere.

What is this and what's it for?

This model is thousands of times smaller than commercial models like OpenAI's GPT and is not designed to compete with them. Its primary goal is to provide the Armenian-speaking community with the first open-weight model that reasons in Armenian, fostering the development of the Large Language Model (LLM) ecosystem in Armenia.

What does "reasoning model" mean? Unlike models that simply regurgitate memorized information, a reasoning model can analyze the structure of a text and draw conclusions based solely on the provided context. It doesn't just reproduce facts; it comprehends them.

The Easiest Way to Get Started: LM Studio

If you are not familiar with programming, the most convenient way to run this model on your computer is with the free application LM Studio.

  • Download the application and find the model in the search bar: ArmGPT/ArmenianGPT-1.0-3B.
  • Download the version that suits your system. For smooth performance, it is recommended to have the specified amount of free RAM:
    • F16: Highest quality version (~8 GB).
    • Q8_0: Excellent balance of quality and file size (~4 GB).
    • Q4_K_M: The best of the 4-bit quantized versions (~2.5 GB), an optimal choice for less powerful computers.
  • A Note on GPUs: If you have a powerful graphics card, LM Studio will automatically use its memory (VRAM), delivering significantly faster performance. The GB values listed refer to either your computer's RAM or your GPU's VRAM.
  • Go to the Chat tab (💬), select the model, and start chatting.
  • Reminder: In this version, the model does not remember the conversation history. Each prompt is treated as a new conversation.

💡 Tip: Using the Temperature Parameter Experiment with this value to tailor the model's responses to your specific goal. While a low value like 0.12 is a good starting point for precise answers, it is not optimal for every use case.

  • Low Temperature (e.g., 0.12): Reduces randomness. Use for precise tasks (like Q&A and summarization) where predictable, fact-based output is required.
  • High Temperature (e.g., 0.72): Increases creativity. Use for creative tasks (like brainstorming and generating new ideas) to get more diverse and original responses.

Practical Applications

Despite its modest size, ArmenianGPT offers a wide range of practical applications, especially in situations where data privacy and security are a top priority.

  • Absolute Privacy and Security: Since the model runs locally (offline), your sensitive data—whether personal emails or business documents—never leaves your computer.
  • Intelligent Document Interaction (Q&A): Upload any text document (e.g., a contract, a scientific article, a report) and ask the model questions based exclusively on its content. This allows you to quickly find necessary information in large texts.
  • Quick Text Summarization: Get concise summaries of long articles, research papers, or email threads, saving you time in seconds.
  • Translation and Language Assistance: Although not a specialized translation model, ArmenianGPT can help you understand the main gist of English or Russian texts by translating them into Armenian. This is particularly useful for quickly grasping foreign-language news or emails.
  • Content Creation and Rewriting: Use the model to draft emails, rephrase texts in a different style, simplify complex ideas, or generate creative concepts.

Current Capabilities and Future Developments

This is the first version of the model, and we plan to improve it continuously.

This version does not yet have the following features:

  • Conversation memory: The model does not remember the previous turn in a conversation.
  • Ability to use System Prompts.

Future versions are planned to include the features listed above, as well as visual perception (Vision) capabilities, such as image understanding, text recognition (OCR), and more.

For Developers

You can use this model online and for free via Google Colab using the following code. Important: Although the code uses a chat structure, this version of the model does not remember the previous Q&A.

# Pre-install necessary libraries
import os, re
if "COLAB_" not in "".join(os.environ.keys()):
    !pip install unsloth
else:
    import torch; v = re.match(r"[0-9]{1,}\.[0-9]{1,}", str(torch.__version__)).group(0)
    xformers = "xformers==" + ("0.0.33.post1" if v=="2.9" else "0.0.32.post2" if v=="2.8" else "0.0.29.post3")
    !pip install --no-deps bitsandbytes accelerate {xformers} peft trl triton cut_cross_entropy unsloth_zoo
    !pip install sentencepiece protobuf "datasets==4.3.0" "huggingface_hub>=0.34.0" hf_transfer pandas
    !pip install --no-deps unsloth
!pip install git+https://github.com/huggingface/transformers.git@bf3f0ae70d0e902efab4b8517fce88f6697636ce
!pip install --no-deps trl==0.22.2

from unsloth import FastLanguageModel
import torch

max_seq_length = 12999
dtype = None
load_in_4bit = False

# Load the model and tokenizer
model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = "ArmGPT/ArmenianGPT-1.0-3B",
    max_seq_length = max_seq_length,
    dtype = dtype,
    load_in_4bit = load_in_4bit,
)

from transformers import TextStreamer

# Construct the request using the chat format
messages = [
    {
        "role": "user",
        "content": [
            {"type": "text", "text": "Who are you?"}
        ]
    }
]

# Prepare inputs for the model
inputs = tokenizer.apply_chat_template(
    messages,
    tokenize = True,
    add_generation_prompt = True,
    return_tensors = "pt",
).to("cuda")

text_streamer = TextStreamer(tokenizer, skip_prompt = True)

_ = model.generate(
    input_ids = inputs,
    streamer = text_streamer,
    max_new_tokens = 12999,

    # Temperature controls randomness. Low values (e.g., 0.12) make the response more focused and predictable, 
    # while high values (e.g., 0.72) make it more creative. Experiment for the best results.
    temperature = 0.12,

    top_p = 0.95,
    repetition_penalty = 1.1,
    eos_token_id = tokenizer.eos_token_id,
)

Benchmarking

At this time, comprehensive benchmarking has not yet been conducted, as international standard tests first need to be properly translated and adapted for the Armenian language. Results will be published once this work is complete.

Follow Us and Share Your Feedback

We value our connection with the community and welcome your participation. To be the first to hear about future releases and news, join our Telegram Channel. If you've found bugs, have questions, or have suggestions, feel free to post them in the "Discussions" tab on our Hugging Face page.

Licensing

This project is released as an "open-weight" model. The model weights are provided for personal, non-commercial use only.

Derivative Works The non-commercial restrictions of this LICENSE apply not only to the original model but also to any derivative works created from it. Any derivative work must be distributed under the same terms as the original LICENSE, without relaxing its restrictions.

Downloads last month
522
Safetensors
Model size
4B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Collection including ArmGPT/ArmenianGPT-1.0-3B