IKOARABICX / README.md
iko-01's picture
Update README.md
2829c64 verified
metadata
license: apache-2.0
language:
  - ar
base_model:
  - aubmindlab/aragpt2-base
pipeline_tag: text-generation
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
import torch

# اسم الريبو على Hugging Face
model_repo = "iko-01/IKOARABICX"

# تحميل الـ Tokenizer من النموذج الأساسي (AraGPT2-base) لأن merges_file مفقود في الريبو الخاص بك
# هذا يحل الخطأ TypeError المتعلق بـ merges_file
tokenizer = AutoTokenizer.from_pretrained("aubmindlab/aragpt2-base")

# تحميل النموذج الخاص بك (IKOARABICX)
model = AutoModelForCausalLM.from_pretrained(model_repo)

# إعداد pipeline لتوليد النص
generator = pipeline('text-generation', model=model, tokenizer=tokenizer, device=0 if torch.cuda.is_available() else -1)  # device=0 لـ GPU، -1 لـ CPU

# مثال على prompt للاختبار (يمكن تغييره)
prompt = "اشرح مفهوم الذكاء الاصطناعي باختصار."

# توليد النص
generated_text = generator(
    prompt,
    max_length=150,  # الحد الأقصى للطول (يشمل الـ prompt)
    num_return_sequences=1,  # عدد الإجابات
    temperature=0.7,  # للتنوع (أقل = أكثر دقة، أعلى = أكثر إبداعًا)
    top_p=0.9,  # لتحسين الجودة
    do_sample=True,  # لتوليد إبداعي
    pad_token_id=tokenizer.eos_token_id  # تجنب تحذيرات
)

# طباعة النتيجة
response = generated_text[0]['generated_text'].replace(prompt, "").strip()
print(f"إجابة النموذج:\n{response}")

5150 2.545200

--- انتهى التدريب! --- المدة الإجمالية للتدريب: 39.26 دقيقة.