مدل جانبی tooka-bert-large برای تحلیل احساسات

⚙️ روند آموزش

  • تعداد ایپاک: ۳
  • اندازه بچ: ۸
  • بهینه‌ساز: AdamW (پیش‌فرض در Hugging Face Trainer)
  • زمان آموزش: حدود ۵ ساعت و ۳۰ دقیقه
  • دیتاست مورد استفاده: IRI2070/snappfood-refined-sentiment-dataset

📈 نتایج ارزیابی

  • دقت (Accuracy): ‎0.9996٪
  • Eval Loss: ‎0.0033

این نتایج عملکرد قوی مدل را در تحلیل احساسات فارسی نشان می‌دهد و اثربخشی TookaBERT-Large را در فاین‌تیون روی دیتاست‌های خاص حوزه تأیید می‌کند.


🚀 نحوه استفاده

pip install 'git+https://github.com/huggingface/transformers.git'
from transformers import AutoTokenizer, AutoModelForSequenceClassification, pipeline

model_name = "IRI2070/tooka-bert-large-snappfood-sentiment"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)

nlp = pipeline("text-classification", model=model, tokenizer=tokenizer)

text = "غذا خیلی خوشمزه بود و سریع رسید."
print(nlp(text))
# [{'label': 'HAPPY', 'score': 0.95}]

📌 کاربردهای مورد انتظار

  • وظیفه اصلی: تحلیل احساسات (طبقه‌بندی دودویی)
  • زبان: فارسی
  • دامنه: نظرات مربوط به سفارش غذا
  • کاربردها: تحلیل بازخورد مشتریان، سیستم‌های پیشنهاددهنده، پایش برند

⚠️ محدودیت‌ها و سوگیری‌ها

  • آموزش فقط بر روی نظرات اسنپ‌فود → ممکن است به سایر حوزه‌ها تعمیم‌پذیر نباشد.
  • احتمال سوگیری ناشی از توزیع دیتاست (مثلاً عدم توازن بین نظرات مثبت و منفی).

این پروژه بخشی از فعالیت‌های آموزشی و پژوهشی در آکادمی همراه اول است و با هدف ارتقای دانش در حوزه‌ی NLP و یادگیری عمیق منتشر شده است.

Downloads last month
78
Safetensors
Model size
0.4B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for IRI2070/tooka-bert-large-sentiment

Finetuned
(6)
this model

Dataset used to train IRI2070/tooka-bert-large-sentiment

Collection including IRI2070/tooka-bert-large-sentiment

Evaluation results