metadata
library_name: transformers
license: apache-2.0
base_model: PartAI/TookaBERT-Large
tags:
- generated_from_trainer
metrics:
- accuracy
model-index:
- name: tooka-bert-large-sentiment
results: []
datasets:
- IRI2070/snappfood-refined-sentiment-dataset
language:
- fa
pipeline_tag: text-classification
مدل جانبی tooka-bert-large برای تحلیل احساسات
⚙️ روند آموزش
- تعداد ایپاک: ۳
- اندازه بچ: ۸
- بهینهساز: AdamW (پیشفرض در Hugging Face Trainer)
- زمان آموزش: حدود ۵ ساعت و ۳۰ دقیقه
- دیتاست مورد استفاده: IRI2070/snappfood-refined-sentiment-dataset
📈 نتایج ارزیابی
- دقت (Accuracy): 0.9996٪
- Eval Loss: 0.0033
این نتایج عملکرد قوی مدل را در تحلیل احساسات فارسی نشان میدهد و اثربخشی TookaBERT-Large را در فاینتیون روی دیتاستهای خاص حوزه تأیید میکند.
🚀 نحوه استفاده
pip install 'git+https://github.com/huggingface/transformers.git'
from transformers import AutoTokenizer, AutoModelForSequenceClassification, pipeline
model_name = "IRI2070/tooka-bert-large-snappfood-sentiment"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
nlp = pipeline("text-classification", model=model, tokenizer=tokenizer)
text = "غذا خیلی خوشمزه بود و سریع رسید."
print(nlp(text))
# [{'label': 'HAPPY', 'score': 0.95}]
📌 کاربردهای مورد انتظار
- وظیفه اصلی: تحلیل احساسات (طبقهبندی دودویی)
- زبان: فارسی
- دامنه: نظرات مربوط به سفارش غذا
- کاربردها: تحلیل بازخورد مشتریان، سیستمهای پیشنهاددهنده، پایش برند
⚠️ محدودیتها و سوگیریها
- آموزش فقط بر روی نظرات اسنپفود → ممکن است به سایر حوزهها تعمیمپذیر نباشد.
- احتمال سوگیری ناشی از توزیع دیتاست (مثلاً عدم توازن بین نظرات مثبت و منفی).
این پروژه بخشی از فعالیتهای آموزشی و پژوهشی در آکادمی همراه اول است و با هدف ارتقای دانش در حوزهی NLP و یادگیری عمیق منتشر شده است.