| Fine-tune a pre-trained Transformer to generate lyrics |
كيفية توليد كلمات الأغاني على غرار فنانك المفضل من خلال ضبط نموذج GPT-2 |
Aleksey Korshuk |
 |
| Train T5 in Tensorflow 2 |
كيفية تدريب T5 لأي مهمة باستخدام Tensorflow 2. يوضح هذا الدفتر مهمة السؤال والجواب المنفذة في Tensorflow 2 باستخدام SQUAD |
Muhammad Harris |
 |
| Train T5 on TPU |
كيفية تدريب T5 على SQUAD مع Transformers و Nlp |
Suraj Patil |
 |
| Fine-tune T5 for Classification and Multiple Choice |
كيفية ضبط نموذج T5 للتصنيف والمهام متعددة الخيارات باستخدام تنسيق النص إلى نص مع PyTorch Lightning |
Suraj Patil |
 |
| Fine-tune DialoGPT on New Datasets and Languages |
كيفية ضبط نموذج DialoGPT على مجموعة بيانات جديدة لروبوتات الدردشة المحادثية المفتوحة |
Nathan Cooper |
 |
| Long Sequence Modeling with Reformer |
كيفية التدريب على تسلسلات طويلة تصل إلى 500,000 رمز باستخدام Reformer |
Patrick von Platen |
 |
| Fine-tune BART for Summarization |
كيفية ضبط نموذج BART للتلخيص باستخدام fastai باستخدام blurr |
Wayde Gilliam |
 |
| Fine-tune a pre-trained Transformer on anyone's tweets |
كيفية توليد تغريدات على غرار حساب Twitter المفضل لديك من خلال ضبط نموذج GPT-2 |
Boris Dayma |
 |
| Optimize 🤗 Hugging Face models with Weights & Biases |
دليل كامل لعرض تكامل W&B مع Hugging Face |
Boris Dayma |
 |
| Pretrain Longformer |
كيفية بناء نسخة "طويلة" من النماذج المسبقة التدريب الموجودة |
Iz Beltagy |
 |
| Fine-tune Longformer for QA |
كيفية ضبط نموذج Longformer لمهمة QA |
Suraj Patil |
 |
| Evaluate Model with 🤗nlp |
كيفية تقييم نموذج Longformer على TriviaQA مع nlp |
Patrick von Platen |
 |
| Fine-tune T5 for Sentiment Span Extraction |
كيفية ضبط نموذج T5 لاستخراج المشاعر باستخدام تنسيق النص إلى نص مع PyTorch Lightning |
Lorenzo Ampil |
 |
| Fine-tune DistilBert for Multiclass Classification |
كيفية ضبط نموذج DistilBert للتصنيف متعدد الفئات باستخدام PyTorch |
Abhishek Kumar Mishra |
 |
| Fine-tune BERT for Multi-label Classification |
كيفية ضبط نموذج BERT للتصنيف متعدد التصنيفات باستخدام PyTorch |
Abhishek Kumar Mishra |
 |
| Fine-tune T5 for Summarization |
كيفية ضبط نموذج T5 للتلخيص في PyTorch وتتبع التجارب باستخدام WandB |
Abhishek Kumar Mishra |
 |
| Speed up Fine-Tuning in Transformers with Dynamic Padding / Bucketing |
كيفية تسريع الضبط الدقيق بعامل 2 باستخدام الضبط الديناميكي/التقسيم |
Michael Benesty |
 |
| Pretrain Reformer for Masked Language Modeling |
كيفية تدريب نموذج Reformer مع طبقات الانتباه ثنائية الاتجاه |
Patrick von Platen |
 |
| Expand and Fine Tune Sci-BERT |
كيفية زيادة مفردات نموذج SciBERT المسبق التدريب من AllenAI على مجموعة بيانات CORD وإنشاء خط أنابيب لها. |
Tanmay Thakur |
 |
| Fine Tune BlenderBotSmall for Summarization using the Trainer API |
كيفية ضبط نموذج BlenderBotSmall للتلخيص على مجموعة بيانات مخصصة، باستخدام واجهة برمجة التطبيقات Trainer. |
Tanmay Thakur |
 |
| Fine-tune Electra and interpret with Integrated Gradients |
كيفية ضبط نموذج Electra للتحليل العاطفي وتفسير التنبؤات باستخدام Captum Integrated Gradients |
Eliza Szczechla |
 |
| fine-tune a non-English GPT-2 Model with Trainer class |
كيفية ضبط نموذج GPT-2 غير الإنجليزي باستخدام فئة Trainer |
Philipp Schmid |
 |
| Fine-tune a DistilBERT Model for Multi Label Classification task |
كيفية ضبط نموذج DistilBERT لمهمة التصنيف متعدد التصنيفات |
Dhaval Taunk |
 |
| Fine-tune ALBERT for sentence-pair classification |
كيفية ضبط نموذج ALBERT أو أي نموذج آخر قائم على BERT لمهمة التصنيف المزدوج للجمل |
Nadir El Manouzi |
 |
| Fine-tune Roberta for sentiment analysis |
كيفية ضبط نموذج Roberta للتحليل العاطفي |
Dhaval Taunk |
 |
| Evaluating Question Generation Models |
ما مدى دقة الإجابات على الأسئلة التي يولدها نموذجك التحويلي seq2seq؟ |
Pascal Zoleko |
 |
| Classify text with DistilBERT and Tensorflow |
كيفية ضبط نموذج DistilBERT للتصنيف النصي في TensorFlow |
Peter Bayerle |
 |
| Leverage BERT for Encoder-Decoder Summarization on CNN/Dailymail |
كيفية البدء السريع لنموذج EncoderDecoderModel مع نقطة تفتيش google-bert/bert-base-uncased للتلخيص على CNN/Dailymail |
Patrick von Platen |
 |
| Leverage RoBERTa for Encoder-Decoder Summarization on BBC XSum |
كيفية البدء السريع لنموذج EncoderDecoderModel المشترك مع نقطة تفتيش FacebookAI/roberta-base للتلخيص على BBC/XSum |
Patrick von Platen |
 |
| Fine-tune TAPAS on Sequential Question Answering (SQA) |
كيفية ضبط نموذج TapasForQuestionAnswering مع نقطة تفتيش tapas-base على مجموعة بيانات Sequential Question Answering (SQA) |
Niels Rogge |
 |
| Evaluate TAPAS on Table Fact Checking (TabFact) |
كيفية تقييم نموذج TapasForSequenceClassification المضبوط مسبقًا مع نقطة تفتيش tapas-base-finetuned-tabfact باستخدام مزيج من مكتبتي 🤗 datasets و 🤗 transformers |
Niels Rogge |
 |
| Fine-tuning mBART for translation |
كيفية ضبط نموذج mBART باستخدام Seq2SeqTrainer للترجمة من الهندية إلى الإنجليزية |
Vasudev Gupta |
 |
| Fine-tune LayoutLM on FUNSD (a form understanding dataset) |
كيفية ضبط نموذج LayoutLMForTokenClassification على مجموعة بيانات FUNSD لاستخراج المعلومات من المستندات الممسوحة ضوئيًا |
Niels Rogge |
 |
| Fine-Tune DistilGPT2 and Generate Text |
كيفية ضبط نموذج DistilGPT2 وتوليد النص |
Aakash Tripathi |
 |
| Fine-Tune LED on up to 8K tokens |
كيفية ضبط نموذج LED على pubmed للتلخيص طويل المدى |
Patrick von Platen |
 |
| Evaluate LED on Arxiv |
كيفية تقييم نموذج LED للتلخيص طويل المدى بشكل فعال |
Patrick von Platen |
 |
| Fine-tune LayoutLM on RVL-CDIP (a document image classification dataset) |
كيفية ضبط نموذج LayoutLMForSequenceClassification على مجموعة بيانات RVL-CDIP لتصنيف المستندات الممسوحة ضوئيًا |
Niels Rogge |
 |
| Wav2Vec2 CTC decoding with GPT2 adjustment |
كيفية فك تشفير تسلسل CTC مع تعديل نموذج اللغة |
Eric Lam |
 |
| Fine-tune BART for summarization in two languages with Trainer class |
كيفية ضبط نموذج BART للتلخيص بلغتين باستخدام فئة Trainer |
Eliza Szczechla |
 |
| Evaluate Big Bird on Trivia QA |
كيفية تقييم نموذج BigBird للأسئلة والأجوبة على وثائق طويلة على Trivia QA |
Patrick von Platen |
 |
| Create video captions using Wav2Vec2 |
كيفية إنشاء تعليقات توضيحية على YouTube من أي فيديو من خلال تفريغ الصوت باستخدام Wav2Vec |
Niklas Muennighoff |
 |
| Fine-tune the Vision Transformer on CIFAR-10 using PyTorch Lightning |
كيفية ضبط نموذج Vision Transformer (ViT) على CIFAR-10 باستخدام مكتبات HuggingFace Transformers و Datasets و PyTorch Lightning |
Niels Rogge |
 |
| Fine-tune the Vision Transformer on CIFAR-10 using the 🤗 Trainer |
كيفية ضبط نموذج Vision Transformer (ViT) على CIFAR-10 باستخدام مكتبات HuggingFace Transformers و Datasets و 🤗 Trainer |
Niels Rogge |
 |
| Evaluate LUKE on Open Entity, an entity typing dataset |
كيفية تقييم نموذج LukeForEntityClassification على مجموعة بيانات Open Entity |
Ikuya Yamada |
 |
| Evaluate LUKE on TACRED, a relation extraction dataset |
كيفية تقييم نموذج LukeForEntityPairClassification على مجموعة بيانات TACRED |
Ikuya Yamada |
 |
| Evaluate LUKE on CoNLL-2003, an important NER benchmark |
كيفية تقييم نموذج LukeForEntitySpanClassification على مجموعة بيانات CoNLL-2003 |
Ikuya Yamada |
 |
| Evaluate BigBird-Pegasus on PubMed dataset |
كيفية تقييم نموذج BigBirdPegasusForConditionalGeneration على مجموعة بيانات PubMed |
Vasudev Gupta |
 |
| Speech Emotion Classification with Wav2Vec2 |
كيفية استخدام نموذج Wav2Vec2 المسبق التدريب لتصنيف المشاعر على مجموعة بيانات MEGA |
Mehrdad Farahani |
 |
| Detect objects in an image with DETR |
كيفية استخدام نموذج DetrForObjectDetection المدرب للكشف عن الأجسام في صورة وتصوير الانتباه |
Niels Rogge |
 |
| Fine-tune DETR on a custom object detection dataset |
كيفية ضبط نموذج DetrForObjectDetection على مجموعة بيانات الكشف عن الأجسام المخصصة |
Niels Rogge |
 |
| Finetune T5 for Named Entity Recognition |
كيفية ضبط نموذج T5 على مهمة التعرف على الكيانات المسماة |
Ogundepo Odunayo |
 |
| Fine-Tuning Open-Source LLM using QLoRA with MLflow and PEFT |
كيفية استخدام QLoRA و PEFT لضبط نموذج LLM بطريقة فعالة من حيث الذاكرة، مع استخدام MLflow لإدارة تتبع التجارب |
Yuki Watanabe |
 |