from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
import torch
# اسم الريبو على Hugging Face
model_repo = "iko-01/IKOARABICX"
# تحميل الـ Tokenizer من النموذج الأساسي (AraGPT2-base) لأن merges_file مفقود في الريبو الخاص بك
# هذا يحل الخطأ TypeError المتعلق بـ merges_file
tokenizer = AutoTokenizer.from_pretrained("aubmindlab/aragpt2-base")
# تحميل النموذج الخاص بك (IKOARABICX)
model = AutoModelForCausalLM.from_pretrained(model_repo)
# إعداد pipeline لتوليد النص
generator = pipeline('text-generation', model=model, tokenizer=tokenizer, device=0 if torch.cuda.is_available() else -1) # device=0 لـ GPU، -1 لـ CPU
# مثال على prompt للاختبار (يمكن تغييره)
prompt = "اشرح مفهوم الذكاء الاصطناعي باختصار."
# توليد النص
generated_text = generator(
prompt,
max_length=150, # الحد الأقصى للطول (يشمل الـ prompt)
num_return_sequences=1, # عدد الإجابات
temperature=0.7, # للتنوع (أقل = أكثر دقة، أعلى = أكثر إبداعًا)
top_p=0.9, # لتحسين الجودة
do_sample=True, # لتوليد إبداعي
pad_token_id=tokenizer.eos_token_id # تجنب تحذيرات
)
# طباعة النتيجة
response = generated_text[0]['generated_text'].replace(prompt, "").strip()
print(f"إجابة النموذج:\n{response}")
5150 2.545200
--- انتهى التدريب! --- المدة الإجمالية للتدريب: 39.26 دقيقة.
- Downloads last month
- 13
Model tree for iko-01/IKOARABICX
Base model
aubmindlab/aragpt2-base