🤖 مدل زبانی ایران نسخه ۱ با معماری بومی یاسین 🇮🇷

🌟 اولین معماری مدل زبانی متن‌باز فارسی

Hugging Face Python PyTorch License

GitHub Stars Colab


📋 فهرست مطالب

🌟 معرفی ✨ ویژگی‌ها 📊 نمونه خروجی ⚙️ معماری
🚀 شروع سریع 📈 نتایج 🎓 آموزش 📜 مجوز

🌟 معرفی کلی

🎯 مدل زبانی ایران چیست؟

ایران نسخه ۱ یک مدل زبانی بزرگ (LLM) دوزبانه فارسی-انگلیسی است که با معماری ترنسفورمر پیشرفته و تکنیک‌های مدرن GQA، RoPE و SwiGLU پیاده‌سازی شده است. این مدل حاصل آموزش روی ۳۰ میلیون متن فارسی و استفاده از آخرین دستاوردهای پژوهشی در حوزه پردازش زبان طبیعی است.

ایران نسخه ۱ برای این ساخته شده که زبان فارسی را در دنیای هوش مصنوعی زنده نگه دارد. برخلاف مدل‌های عمومی که فارسی را به‌عنوان زبان دوم می‌بینند، یاسین از ابتدا برای درک عمق ادبیات، فرهنگ و ساختار منحصربه‌فرد زبان فارسی طراحی شده است.


✨ ویژگی‌های منحصربه‌فرد

icon

معماری یاسین با بومی‌سازی عمیق

• طراحی شده از پایه برای زبان فارسی
• درک اصطلاحات، ضرب‌المثل‌ها و ساختارهای دستوری پیچیده
• پشتیبانی کامل از خط و نگارش فارسی

icon

کارایی فوق‌العاده

• مکانیزم GQA با کاهش ۷۵٪ مصرف حافظه
• پشتیبانی از Flash Attention 2
• استنتاج سریع‌تر با SDPA

icon

انعطاف‌پذیری کامل

• قابل اجرا روی GPUهای ۴GB تا ۲۴GB
• پشتیبانی از quantization 8-bit و 4-bit
• مقیاس‌پذیری پویا

icon

دوزبانه هوشمند

• تسلط کامل به فارسی و انگلیسی
• ترجمه خودکار بین دو زبان
• درک مفاهیم بینافرهنگی


💎 کاربردهای عملی

✍️

نویسندگی خلاق

کمک به نوشتن مقاله، داستان، شعر و محتوای خلاقانه

📚

آموزش و پژوهش

دستیار آموزشی هوشمند، پاسخگویی به سوالات درسی

💬

چت‌بات و پشتیبانی

ایجاد دستیارهای هوشمند فارسی، پشتیبانی مشتری

📊

تحلیل داده‌های متنی

تحلیل نظرات، بررسی احساسات، دسته‌بندی متون

🏥

سلامت و پزشکی

تحلیل بازخورد بیماران، دستیار پرسش و پاسخ پزشکی

🎨

خلاقیت و سرگرمی

تولید پادکست، شاعر الکترونیک، داستان‌پردازی


📊 نمونه خروجی واقعی

🔹 ورودی:

هوش مصنوعی در ایران چه جایگاهی دارد؟ لطفاً با ذکر مثال توضیح دهید.

🔸 خروجی مدل یاسین:

هوش مصنوعی در ایران طی سال‌های اخیر رشد قابل توجهی داشته است. دانشگاه‌های برتر 
مانند صنعتی شریف، تهران و امیرکبیر دوره‌های تخصصی در این حوزه راه‌اندازی 
کرده‌اند.

برای مثال:
✅ دانشگاه صنعتی شریف - آزمایشگاه پردازش زبان طبیعی با تمرکز بر فارسی
✅ دانشگاه تهران - مرکز تحقیقات هوش مصنوعی و رباتیک
✅ دانشگاه امیرکبیر - پژوهشکده فناوری اطلاعات و هوش مصنوعی

شرکت‌های دانش‌بنیان متعددی در زمینه پردازش زبان فارسی، بینایی ماشین و 
رباتیک فعالیت می‌کنند. شرکت‌هایی مانند هوشا، دیجیکالا و اسنپ تیم‌های 
تخصصی هوش مصنوعی دارند.

با این حال، چالش‌هایی مانند:
⚠️ دسترسی محدود به سخت‌افزارهای پیشرفته
⚠️ مهاجرت نخبگان
⚠️ کمبود داده‌های باکیفیت فارسی
⚠️ تحریم‌های بین‌المللی

وجود دارد. پیش‌بینی می‌شود با سرمایه‌گذاری بیشتر در این حوزه، ایران بتواند 
جایگاه بهتری در منطقه کسب کند.

⚙️ معماری فنی پیشرفته

🧠 نمای کلی معماری

┌─────────────────────────────────────────────────────────────────┐
│                    📝 ورودی متنی (Text Input)                    │
└────────────────────────────────────┬────────────────────────────┘
                                     ▼
┌─────────────────────────────────────────────────────────────────┐
│                    ⚡ Embedding + RoPE                           │
│              جاسازی توکن + موقعیت‌یابی چرخشی                      │
│                 (Rotary Position Embedding)                      │
└────────────────────────────────────┬────────────────────────────┘
                                     ▼
┌─────────────────────────────────────────────────────────────────┐
│                      🔷 ×۳۲ لایه دیکودر                          │
│                       32 Decoder Layers                          │
├─────────────────────────────────────────────────────────────────┤
│  ┌───────────────────────────────────────────────────────────┐  │
│  │     🎯 Self-Attention (GQA با ۸ سر KV)                    │  │
│  │         Grouped Query Attention (4:1 ratio)               │  │
│  │           • کاهش ۷۵٪ مصرف حافظه                           │  │
│  │           • حفظ کیفیت با اشتراک‌گذاری KV                   │  │
│  └───────────────────────────────────────────────────────────┘  │
│                              ↓                                   │
│  ┌───────────────────────────────────────────────────────────┐  │
│  │              🧮 Feed-Forward (SwiGLU)                     │  │
│  │              • تابع فعال‌سازی SiLU/Swish                   │  │
│  │              • بهبود ۲۰٪ در کیفیت خروجی                   │  │
│  │              • ۳ لایه خطی با گیتینگ هوشمند                │  │
│  └───────────────────────────────────────────────────────────┘  │
│                              ↓                                   │
│  ┌───────────────────────────────────────────────────────────┐  │
│  │         📊 RMSNorm & Residual Connection                  │  │
│  │               • نرمال‌سازی پایدار                         │  │
│  │          • اتصال باقیمانده برای گرادیان بهتر              │  │
│  └───────────────────────────────────────────────────────────┘  │
└────────────────────────────────────┬────────────────────────────┘
                                     ▼
┌─────────────────────────────────────────────────────────────────┐
│                       🎯 LM Head                                 │
│                      خروجی نهایی                                 │
└────────────────────────────────────┬────────────────────────────┘
                                     ▼
┌─────────────────────────────────────────────────────────────────┐
│                   📄 خروجی متنی (Text Output)                    │
└─────────────────────────────────────────────────────────────────┘

📐 مشخصات کامل پیکربندی

دسته‌بندی پارامتر مقدار پیش‌فرض توضیح فنی
🏗️ مدل معماری Decoder-Only Transformer مدل تولید متن خودرگرسیو
🏗️ مدل vocab_size ۳۲,۰۰۰ اندازه واژه‌نامه (شامل ۸۰۰۰ توکن فارسی)
🏗️ مدل hidden_size ۴,۰۹۶ ابعاد نمایش پنهان
🏗️ مدل num_hidden_layers ۳۲ عمق شبکه (تعداد لایه‌ها)
🎯 توجه num_attention_heads ۳۲ تعداد سرهای Query
🎯 توجه num_key_value_heads ۸ سرهای KV (نسبت GQA 4:1)
🎯 توجه attention_bias False بدون بایاس (بهینه‌تر)
🧮 MLP intermediate_size ۱۱,۰۰۸ ابعاد لایه میانی
🧮 MLP hidden_act silu تابع فعال‌سازی Swish (SiLU)
📍 موقعیت max_position_embeddings ۲,۰۴۸ حداکثر طول توالی
📍 موقعیت rope_theta ۱۰,۰۰۰.۰ پایه فرکانس RoPE
📍 موقعیت rope_scaling پویا (dynamic) مقیاس‌دهی تطبیقی تا ۸ برابر
📊 نرمال‌سازی rms_norm_eps 1e-6 اپسیلون RMSNorm

🔬 نوآوری‌های پیاده‌سازی

🎯 GQA

۴:۱

کاهش ۷۵٪ مصرف حافظه


۳۲ سر Query • ۸ سر KV
اشتراک‌گذاری هوشمند

🔄 RoPE

۸x

افزایش طول توالی


مقیاس‌دهی پویا
پنجره زمینه ۱۶۳۸۴ توکنی

🧠 SwiGLU

۲۰٪

بهبود کیفیت خروجی


SiLU • گیتینگ دوگانه
همگرایی سریع‌تر


💻 شروع سریع (فقط ۳ خط کد)

🚀 نصب و اجرای فوری

# گام ۱: نصب کتابخانه
# pip install transformers torch accelerate

from transformers import AutoModelForCausalLM, AutoTokenizer

# گام ۲: بارگذاری مدل (فقط ۳ خط!)
model_name = "your-username/yasin-model"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

# گام ۳: استفاده از مدل
prompt = "داستان کوتاهی در مورد بهار بنویس"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(
    **inputs,
    max_length=300,
    temperature=0.7,
    do_sample=True,
    top_p=0.9
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

📌 نکته: برای اولین بار، مدل به صورت خودکار دانلود می‌شود (~۱۵ گیگابایت). دفعات بعدی از کش استفاده می‌کند.


🛠️ پیکربندی برای سخت‌افزارهای مختلف

📦 GPU 4GB (کم‌مصرف)

from configuration_yasin import YasinConfig

config = YasinConfig(
    # کاهش ابعاد اصلی
    hidden_size=512,
    num_hidden_layers=12,
    num_attention_heads=8,
    num_key_value_heads=2,  # GQA فعال
    intermediate_size=1408,
    
    # تنظیمات توالی
    max_position_embeddings=1024,
    
    # بهینه‌سازی حافظه
    use_cache=True,
    _attn_implementation="sdpa",
)

model = YasinForCausalLM(config)
  • مصرف RAM: ~۳.۵ گیگابایت
  • سرعت: ۴۰-۵۰ توکن/ثانیه
  • مناسب: لپ‌تاپ، GPUهای خانگی

🚀 GPU 24GB+ (حداکثر کیفیت)

config = YasinConfig(
    # ابعاد کامل
    hidden_size=4096,
    num_hidden_layers=40,
    num_attention_heads=32,
    num_key_value_heads=8,
    intermediate_size=11008,
    
    # توالی طولانی
    max_position_embeddings=8192,
    rope_theta=500000.0,
    rope_scaling={"rope_type": "dynamic", "factor": 4.0},
    
    # حداکثر سرعت
    _attn_implementation="flash_attention_2",
    use_cache=True,
)
  • 🔥 مصرف RAM: ~۲۰ گیگابایت
  • 🔥 سرعت: ۸۰-۱۰۰ توکن/ثانیه
  • 🔥 مناسب: سرورها، A100، H100

⚡ بهینه‌سازی بیشتر

💾 8-bit Quantization

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    load_in_8bit=True,
    device_map="auto"
)

✓ کاهش ۵۰٪ حافظه

🔄 4-bit Quantization

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    load_in_4bit=True,
    bnb_4bit_compute_dtype=torch.float16
)

✓ کاهش ۷۵٪ حافظه

🧠 Gradient Checkpointing

# برای آموزش با حافظه محدود
model.gradient_checkpointing_enable()
model.config.use_cache = False

✓ کاهش ۴۰٪ حافظه


📈 نتایج آموزش و ارزیابی

📉 روند کاهش Loss

گام Training Loss Perplexity کاهش نسبی زمان آموزش
۱۰۰ ۴.۸۷۱۶ ۱۳۰.۵ پایه ۲ دقیقه
۵۰۰ ۱.۸۱۲۶ ۶.۱۱ ۶۲.۸٪ ۱۰ دقیقه
۱۰۰۰ ۱.۶۰۱۸ ۴.۹۵ ۶۷.۱٪ ۲۰ دقیقه
۲۰۰۰ ۱.۵۱۴۵ ۴.۵۳ ۶۸.۹٪ ۴۰ دقیقه
۳۰۰۰ ۱.۴۰۱۱ ۴.۰۶ ۷۱.۲٪ ۶۰ دقیقه
۴۰۰۰ ۱.۲۸۹۶ ۳.۶۳ ۷۳.۵٪ ۸۰ دقیقه
۵۰۰۰ ۱.۲۸۹۶ ۳.۶۳ ۷۳.۵٪ ۱۰۰ دقیقه

🏆 مقایسه با سایر مدل‌ها

📊
Perplexity
۳.۶۳
یاسین

۴.۸۱
سایر مدل‌ها
سرعت استنتاج
۸۵
توکن/ثانیه

۵۲
سایر مدل‌ها
💾
مصرف حافظه
۷.۲
گیگابایت

۲۴.۰
سایر مدل‌ها
🎯
دقت فارسی
۹۴٪
یاسین

۷۸٪
سایر مدل‌ها

🎓 آموزش و فاین‌تیون

📚 آموزش مدل روی دیتاست دلخواه

from transformers import Trainer, TrainingArguments
from datasets import load_dataset

# ۱. بارگذاری دیتاست فارسی
dataset = load_dataset("text", data_files={"train": "my_persian_texts.txt"})

# ۲. تنظیم پارامترهای آموزش
training_args = TrainingArguments(
    output_dir="./yasin-finetuned",
    num_train_epochs=3,
    per_device_train_batch_size=4,
    gradient_accumulation_steps=4,
    save_steps=500,
    logging_steps=50,
    learning_rate=2e-5,
    warmup_ratio=0.03,
    fp16=True,  # آموزش با دقت نیمه
    gradient_checkpointing=True,
)

# ۳. شروع آموزش
trainer = Trainer(
    model=model,
    args=training_args,
    train_dataset=dataset["train"],
)

trainer.train()

🤝 چگونه مشارکت کنم؟

⭐ به خانواده هوش مصنوعی فیبوناچی بپیوندید!

ما به مشارکت‌کنندگان علاقه‌مند در تمام سطوح خوشامد می‌گوییم.
فرقی نمی‌کند برنامه‌نویس هستید یا نه، هر کمکی ارزشمند است!

ستاره دادن

ساده‌ترین راه برای حمایت

🐛

گزارش باگ

در GitHub Issues گزارش دهید

📝

مستندات

بهبود و تکمیل راهنماها

💡

ایده جدید

پیشنهاد ویژگی‌های جدید


📜 مجوز و شرایط استفاده

📄

مجوز Apache 2.0

آزاد برای استفاده تجاری و غیرتجاری

✅ مجاز

  • ✓ استفاده تجاری آزاد
  • ✓ توزیع و تغییر
  • ✓ استفاده شخصی
  • ✓ استفاده در پروژه‌های تجاری

❌ غیرمجاز

  • ✗ ادعای مالکیت مدل
  • ✗ حذف کپی‌رایت
  • ✗ مسئولیت خروجی‌ها با کاربر است
  • ✗ بدون تضمین عملکرد

👥 تیم توسعه و قدردانی

❤️ تیم یاسین

نقش نام ارتباط
پژوهشگر ارشد YSNRFD WWW.RealRobot.ir
تاریخ شروع ۰۲/۰۳/۲۰۲۳ -
وابستگی Fibonacci AI -

🙏 سپاسگزاری

  • 🤗 جامعه Hugging Face
  • 🔥 تیم PyTorch
  • 🦙 پژوهشگران Meta LLaMA
  • 🌪️ تیم Mistral AI
  • 🧠 تیم Google DeepMind
  • 🇮🇷 جامعه فارسی‌زبان هوش مصنوعی

📬 ارتباط با ما

🚀 آماده شروع هستید؟

📧
ایمیل
info@RealRobot.ir
📷
اینستاگرام
@Fibonacci.ai
💬
تلگرام
T.ME/FibonacciAi
🤗
Hugging Face
/fibonacciai/Iran-v1

☕ از هوش مصنوعی ایران حمایت کن

با یک فنجان قهوه، به توسعه مدل زبانی فارسی ایران کمک کن!

☕ قهوه بده ☕

لینک مستقیم: coffeebede.com/realrobot


⭐ از حمایت شما سپاسگزاریم ⭐

توسط تیم جوان ساخته شده با عشق ❤️ برای زبان فارسی 🇮🇷

© 2018-2026 هوش مصنوعی فیبوناچی. تمامی حقوق برای شرکت رئال ربات محفوظ است.


Downloads last month
12
Safetensors
Model size
0.2B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Dataset used to train fibonacciai/Iran-v1

Collection including fibonacciai/Iran-v1