--- license: apache-2.0 language: - ar base_model: - aubmindlab/aragpt2-base pipeline_tag: text-generation --- ```python from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline import torch # اسم الريبو على Hugging Face model_repo = "iko-01/IKOARABICX" # تحميل الـ Tokenizer من النموذج الأساسي (AraGPT2-base) لأن merges_file مفقود في الريبو الخاص بك # هذا يحل الخطأ TypeError المتعلق بـ merges_file tokenizer = AutoTokenizer.from_pretrained("aubmindlab/aragpt2-base") # تحميل النموذج الخاص بك (IKOARABICX) model = AutoModelForCausalLM.from_pretrained(model_repo) # إعداد pipeline لتوليد النص generator = pipeline('text-generation', model=model, tokenizer=tokenizer, device=0 if torch.cuda.is_available() else -1) # device=0 لـ GPU، -1 لـ CPU # مثال على prompt للاختبار (يمكن تغييره) prompt = "اشرح مفهوم الذكاء الاصطناعي باختصار." # توليد النص generated_text = generator( prompt, max_length=150, # الحد الأقصى للطول (يشمل الـ prompt) num_return_sequences=1, # عدد الإجابات temperature=0.7, # للتنوع (أقل = أكثر دقة، أعلى = أكثر إبداعًا) top_p=0.9, # لتحسين الجودة do_sample=True, # لتوليد إبداعي pad_token_id=tokenizer.eos_token_id # تجنب تحذيرات ) # طباعة النتيجة response = generated_text[0]['generated_text'].replace(prompt, "").strip() print(f"إجابة النموذج:\n{response}") ``` 5150 2.545200 --- انتهى التدريب! --- المدة الإجمالية للتدريب: 39.26 دقيقة.