Instructions to use PartAI/TookaBERT-Large with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use PartAI/TookaBERT-Large with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("fill-mask", model="PartAI/TookaBERT-Large")# Load model directly from transformers import AutoTokenizer, AutoModelForMaskedLM tokenizer = AutoTokenizer.from_pretrained("PartAI/TookaBERT-Large") model = AutoModelForMaskedLM.from_pretrained("PartAI/TookaBERT-Large") - Notebooks
- Google Colab
- Kaggle
استفاده برای مترجم
#4
by kaky - opened
آیا میشه از این مدل برای ساخت یک مترجم استفاده کرد؟
بله شدنی هست، کار مدل Bert اینه که ویژگی های متن رو به صورت دو طرفه استخراج می کنه و شما می توانید از شبکه عصبی خودرمزگذار-خود رمز گشا برای ساخت مترجم استفاده کنید و نیاز به یک دیتاست مناسب دارید.
برای رمزگذاری از bert و برای رمز گشایی می توان از gpt 2 استفاده کرد و به این ترتیب یک مدل شبیه bart البته برای ترجمه ساخت.
TookaBERT-Large برای استخراج ویژگی های زبان فارسی بهترین مدل موجود هست در حال حاضر و بسیار قدرتمنده.
mohalisad changed discussion status to closed