from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
import torch

# اسم الريبو على Hugging Face
model_repo = "iko-01/IKOARABICX"

# تحميل الـ Tokenizer من النموذج الأساسي (AraGPT2-base) لأن merges_file مفقود في الريبو الخاص بك
# هذا يحل الخطأ TypeError المتعلق بـ merges_file
tokenizer = AutoTokenizer.from_pretrained("aubmindlab/aragpt2-base")

# تحميل النموذج الخاص بك (IKOARABICX)
model = AutoModelForCausalLM.from_pretrained(model_repo)

# إعداد pipeline لتوليد النص
generator = pipeline('text-generation', model=model, tokenizer=tokenizer, device=0 if torch.cuda.is_available() else -1)  # device=0 لـ GPU، -1 لـ CPU

# مثال على prompt للاختبار (يمكن تغييره)
prompt = "اشرح مفهوم الذكاء الاصطناعي باختصار."

# توليد النص
generated_text = generator(
    prompt,
    max_length=150,  # الحد الأقصى للطول (يشمل الـ prompt)
    num_return_sequences=1,  # عدد الإجابات
    temperature=0.7,  # للتنوع (أقل = أكثر دقة، أعلى = أكثر إبداعًا)
    top_p=0.9,  # لتحسين الجودة
    do_sample=True,  # لتوليد إبداعي
    pad_token_id=tokenizer.eos_token_id  # تجنب تحذيرات
)

# طباعة النتيجة
response = generated_text[0]['generated_text'].replace(prompt, "").strip()
print(f"إجابة النموذج:\n{response}")

5150 2.545200

--- انتهى التدريب! --- المدة الإجمالية للتدريب: 39.26 دقيقة.

Downloads last month
13
Safetensors
Model size
0.2B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for iko-01/IKOARABICX

Finetuned
(22)
this model