📋 فهرست مطالب
| 🌟 معرفی | ✨ ویژگیها | 📊 نمونه خروجی | ⚙️ معماری |
| 🚀 شروع سریع | 📈 نتایج | 🎓 آموزش | 📜 مجوز |
🌟 معرفی کلی
🎯 مدل زبانی ایران چیست؟
ایران نسخه ۱ یک مدل زبانی بزرگ (LLM) دوزبانه فارسی-انگلیسی است که با معماری ترنسفورمر پیشرفته و تکنیکهای مدرن ایران نسخه ۱ برای این ساخته شده که زبان فارسی را در دنیای هوش مصنوعی زنده نگه دارد. برخلاف مدلهای عمومی که فارسی را بهعنوان زبان دوم میبینند، یاسین از ابتدا برای درک عمق ادبیات، فرهنگ و ساختار منحصربهفرد زبان فارسی طراحی شده است. |
✨ ویژگیهای منحصربهفرد
معماری یاسین با بومیسازی عمیق
• طراحی شده از پایه برای زبان فارسی |
کارایی فوقالعاده
• مکانیزم GQA با کاهش ۷۵٪ مصرف حافظه |
انعطافپذیری کامل
• قابل اجرا روی GPUهای ۴GB تا ۲۴GB |
دوزبانه هوشمند
• تسلط کامل به فارسی و انگلیسی |
💎 کاربردهای عملی
|
✍️
نویسندگی خلاقکمک به نوشتن مقاله، داستان، شعر و محتوای خلاقانه |
📚
آموزش و پژوهشدستیار آموزشی هوشمند، پاسخگویی به سوالات درسی |
💬
چتبات و پشتیبانیایجاد دستیارهای هوشمند فارسی، پشتیبانی مشتری |
|
📊
تحلیل دادههای متنیتحلیل نظرات، بررسی احساسات، دستهبندی متون |
🏥
سلامت و پزشکیتحلیل بازخورد بیماران، دستیار پرسش و پاسخ پزشکی |
🎨
خلاقیت و سرگرمیتولید پادکست، شاعر الکترونیک، داستانپردازی |
📊 نمونه خروجی واقعی
🔹 ورودی:
🔸 خروجی مدل یاسین:
|
⚙️ معماری فنی پیشرفته
🧠 نمای کلی معماری
┌─────────────────────────────────────────────────────────────────┐
│ 📝 ورودی متنی (Text Input) │
└────────────────────────────────────┬────────────────────────────┘
▼
┌─────────────────────────────────────────────────────────────────┐
│ ⚡ Embedding + RoPE │
│ جاسازی توکن + موقعیتیابی چرخشی │
│ (Rotary Position Embedding) │
└────────────────────────────────────┬────────────────────────────┘
▼
┌─────────────────────────────────────────────────────────────────┐
│ 🔷 ×۳۲ لایه دیکودر │
│ 32 Decoder Layers │
├─────────────────────────────────────────────────────────────────┤
│ ┌───────────────────────────────────────────────────────────┐ │
│ │ 🎯 Self-Attention (GQA با ۸ سر KV) │ │
│ │ Grouped Query Attention (4:1 ratio) │ │
│ │ • کاهش ۷۵٪ مصرف حافظه │ │
│ │ • حفظ کیفیت با اشتراکگذاری KV │ │
│ └───────────────────────────────────────────────────────────┘ │
│ ↓ │
│ ┌───────────────────────────────────────────────────────────┐ │
│ │ 🧮 Feed-Forward (SwiGLU) │ │
│ │ • تابع فعالسازی SiLU/Swish │ │
│ │ • بهبود ۲۰٪ در کیفیت خروجی │ │
│ │ • ۳ لایه خطی با گیتینگ هوشمند │ │
│ └───────────────────────────────────────────────────────────┘ │
│ ↓ │
│ ┌───────────────────────────────────────────────────────────┐ │
│ │ 📊 RMSNorm & Residual Connection │ │
│ │ • نرمالسازی پایدار │ │
│ │ • اتصال باقیمانده برای گرادیان بهتر │ │
│ └───────────────────────────────────────────────────────────┘ │
└────────────────────────────────────┬────────────────────────────┘
▼
┌─────────────────────────────────────────────────────────────────┐
│ 🎯 LM Head │
│ خروجی نهایی │
└────────────────────────────────────┬────────────────────────────┘
▼
┌─────────────────────────────────────────────────────────────────┐
│ 📄 خروجی متنی (Text Output) │
└─────────────────────────────────────────────────────────────────┘
📐 مشخصات کامل پیکربندی
| دستهبندی | پارامتر | مقدار پیشفرض | توضیح فنی |
|---|---|---|---|
| 🏗️ مدل | معماری | Decoder-Only Transformer | مدل تولید متن خودرگرسیو |
| 🏗️ مدل | vocab_size | ۳۲,۰۰۰ | اندازه واژهنامه (شامل ۸۰۰۰ توکن فارسی) |
| 🏗️ مدل | hidden_size | ۴,۰۹۶ | ابعاد نمایش پنهان |
| 🏗️ مدل | num_hidden_layers | ۳۲ | عمق شبکه (تعداد لایهها) |
| 🎯 توجه | num_attention_heads | ۳۲ | تعداد سرهای Query |
| 🎯 توجه | num_key_value_heads | ۸ | سرهای KV (نسبت GQA 4:1) |
| 🎯 توجه | attention_bias | False | بدون بایاس (بهینهتر) |
| 🧮 MLP | intermediate_size | ۱۱,۰۰۸ | ابعاد لایه میانی |
| 🧮 MLP | hidden_act | silu | تابع فعالسازی Swish (SiLU) |
| 📍 موقعیت | max_position_embeddings | ۲,۰۴۸ | حداکثر طول توالی |
| 📍 موقعیت | rope_theta | ۱۰,۰۰۰.۰ | پایه فرکانس RoPE |
| 📍 موقعیت | rope_scaling | پویا (dynamic) | مقیاسدهی تطبیقی تا ۸ برابر |
| 📊 نرمالسازی | rms_norm_eps | 1e-6 | اپسیلون RMSNorm |
🔬 نوآوریهای پیادهسازی
🎯 GQA۴:۱
کاهش ۷۵٪ مصرف حافظه ۳۲ سر Query • ۸ سر KV |
🔄 RoPE۸x
افزایش طول توالی مقیاسدهی پویا |
🧠 SwiGLU۲۰٪
بهبود کیفیت خروجی SiLU • گیتینگ دوگانه |
💻 شروع سریع (فقط ۳ خط کد)
🚀 نصب و اجرای فوری
# گام ۱: نصب کتابخانه
# pip install transformers torch accelerate
from transformers import AutoModelForCausalLM, AutoTokenizer
# گام ۲: بارگذاری مدل (فقط ۳ خط!)
model_name = "your-username/yasin-model"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# گام ۳: استفاده از مدل
prompt = "داستان کوتاهی در مورد بهار بنویس"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(
**inputs,
max_length=300,
temperature=0.7,
do_sample=True,
top_p=0.9
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
📌 نکته: برای اولین بار، مدل به صورت خودکار دانلود میشود (~۱۵ گیگابایت). دفعات بعدی از کش استفاده میکند.
🛠️ پیکربندی برای سختافزارهای مختلف
📦 GPU 4GB (کممصرف)
|
🚀 GPU 24GB+ (حداکثر کیفیت)
|
⚡ بهینهسازی بیشتر
💾 8-bit Quantization
✓ کاهش ۵۰٪ حافظه |
🔄 4-bit Quantization
✓ کاهش ۷۵٪ حافظه |
🧠 Gradient Checkpointing
✓ کاهش ۴۰٪ حافظه |
📈 نتایج آموزش و ارزیابی
📉 روند کاهش Loss
| گام | Training Loss | Perplexity | کاهش نسبی | زمان آموزش |
|---|---|---|---|---|
| ۱۰۰ | ۴.۸۷۱۶ | ۱۳۰.۵ | پایه | ۲ دقیقه |
| ۵۰۰ | ۱.۸۱۲۶ | ۶.۱۱ | ۶۲.۸٪ | ۱۰ دقیقه |
| ۱۰۰۰ | ۱.۶۰۱۸ | ۴.۹۵ | ۶۷.۱٪ | ۲۰ دقیقه |
| ۲۰۰۰ | ۱.۵۱۴۵ | ۴.۵۳ | ۶۸.۹٪ | ۴۰ دقیقه |
| ۳۰۰۰ | ۱.۴۰۱۱ | ۴.۰۶ | ۷۱.۲٪ | ۶۰ دقیقه |
| ۴۰۰۰ | ۱.۲۸۹۶ | ۳.۶۳ | ۷۳.۵٪ | ۸۰ دقیقه |
| ۵۰۰۰ | ۱.۲۸۹۶ | ۳.۶۳ | ۷۳.۵٪ | ۱۰۰ دقیقه |
🏆 مقایسه با سایر مدلها
|
📊
Perplexity
۳.۶۳
یاسین
۴.۸۱
سایر مدلها
|
⚡
سرعت استنتاج
۸۵
توکن/ثانیه
۵۲
سایر مدلها
|
💾
مصرف حافظه
۷.۲
گیگابایت
۲۴.۰
سایر مدلها
|
🎯
دقت فارسی
۹۴٪
یاسین
۷۸٪
سایر مدلها
|
🎓 آموزش و فاینتیون
📚 آموزش مدل روی دیتاست دلخواه
from transformers import Trainer, TrainingArguments
from datasets import load_dataset
# ۱. بارگذاری دیتاست فارسی
dataset = load_dataset("text", data_files={"train": "my_persian_texts.txt"})
# ۲. تنظیم پارامترهای آموزش
training_args = TrainingArguments(
output_dir="./yasin-finetuned",
num_train_epochs=3,
per_device_train_batch_size=4,
gradient_accumulation_steps=4,
save_steps=500,
logging_steps=50,
learning_rate=2e-5,
warmup_ratio=0.03,
fp16=True, # آموزش با دقت نیمه
gradient_checkpointing=True,
)
# ۳. شروع آموزش
trainer = Trainer(
model=model,
args=training_args,
train_dataset=dataset["train"],
)
trainer.train()
🤝 چگونه مشارکت کنم؟
⭐ به خانواده هوش مصنوعی فیبوناچی بپیوندید!
ما به مشارکتکنندگان علاقهمند در تمام سطوح خوشامد میگوییم.
فرقی نمیکند برنامهنویس هستید یا نه، هر کمکی ارزشمند است!
|
⭐
ستاره دادنسادهترین راه برای حمایت |
🐛
گزارش باگدر GitHub Issues گزارش دهید |
📝
مستنداتبهبود و تکمیل راهنماها |
💡
ایده جدیدپیشنهاد ویژگیهای جدید |
📜 مجوز و شرایط استفاده
|
📄
|
مجوز Apache 2.0آزاد برای استفاده تجاری و غیرتجاری |
✅ مجاز
|
❌ غیرمجاز
|
👥 تیم توسعه و قدردانی
❤️ تیم یاسین
| نقش | نام | ارتباط |
|---|---|---|
| پژوهشگر ارشد | YSNRFD | WWW.RealRobot.ir |
| تاریخ شروع | ۰۲/۰۳/۲۰۲۳ | - |
| وابستگی | Fibonacci AI | - |
🙏 سپاسگزاری
|
|
📬 ارتباط با ما
🚀 آماده شروع هستید؟
|
📧
ایمیلinfo@RealRobot.ir |
📷
اینستاگرام@Fibonacci.ai |
💬
تلگرامT.ME/FibonacciAi |
🤗
Hugging Face/fibonacciai/Iran-v1 |
☕ از هوش مصنوعی ایران حمایت کن
با یک فنجان قهوه، به توسعه مدل زبانی فارسی ایران کمک کن!
☕ قهوه بده ☕لینک مستقیم: coffeebede.com/realrobot
⭐ از حمایت شما سپاسگزاریم ⭐
توسط تیم جوان ساخته شده با عشق ❤️ برای زبان فارسی 🇮🇷
© 2018-2026 هوش مصنوعی فیبوناچی. تمامی حقوق برای شرکت رئال ربات محفوظ است.
- Downloads last month
- 12