from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
import os

# خطوة تشخيصية: دعنا نرى محتويات المجلد للتأكد
main_output_dir = "/content/gpt2-openhermes-finetuned-tpu"
print(f"محتويات المجلد '{main_output_dir}':")
# قد يكون المجلد فارغًا أو يحتوي فقط على مجلدات الـ checkpoints
# وهذا سيؤكد سبب المشكلة
!ls -l {main_output_dir}

# تحديد مسار نقطة التفتيش التي تريد اختبارها
checkpoint_path = "/content/gpt2-openhermes-finetuned-tpu/checkpoint-4000"

# اسم النموذج الأصلي الذي تم التدريب عليه
base_model_name = "gpt2"

# 1. تحميل النموذج من نقطة التفتيش المحلية
print(f"\nتحميل النموذج من: {checkpoint_path}")
finetuned_model = AutoModelForCausalLM.from_pretrained(checkpoint_path)

# 2. تحميل المُرمِّز من المصدر الأصلي على Hugging Face Hub
# <--- هذا هو الحل النهائي الذي يتجاوز مشكلة الملفات المفقودة
print(f"تحميل المُرمِّز الأصلي من: '{base_model_name}'")
finetuned_tokenizer = AutoTokenizer.from_pretrained(base_model_name)

# GPT-2 لا يملك pad_token افتراضيًا، لذلك يجب تعيينه
# هذه خطوة ضرورية جدًا لتجنب الأخطاء والتحذيرات أثناء التوليد
if finetuned_tokenizer.pad_token is None:
    finetuned_tokenizer.pad_token = finetuned_tokenizer.eos_token
    # نقوم بتحديث إعدادات النموذج أيضًا
    finetuned_model.config.pad_token_id = finetuned_model.config.eos_token_id


# إعداد pipeline لتوليد النصوص
generator = pipeline(
    "text-generation",
    model=finetuned_model,
    tokenizer=finetuned_tokenizer,
    device=-1  # استخدام CPU للاختبار
)

# قائمة بالأسئلة
questions = [
    "What is the capital of Egypt and what is it famous for",
   
    "How does a computer work",
    
]

# اختبار النموذج على الأسئلة
print("\n--- اختبار النموذج من Checkpoint-4000 ---")
for prompt in questions:
    result = generator(
        prompt,
        max_new_tokens=150,
        do_sample=True,
        temperature=0.7,
        top_p=0.9,
        top_k=50,
        pad_token_id=finetuned_tokenizer.eos_token_id # ممارسة جيدة لتمرير هذا
    )
    print(f"\nالسؤال: {prompt}")
    print(f"إجابة النموذج:\n{result[0]['generated_text']}")
Downloads last month
9
Safetensors
Model size
0.2B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support