iko-01 commited on
Commit
2829c64
·
verified ·
1 Parent(s): aac003c

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +51 -3
README.md CHANGED
@@ -1,3 +1,51 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ language:
4
+ - ar
5
+ base_model:
6
+ - aubmindlab/aragpt2-base
7
+ pipeline_tag: text-generation
8
+ ---
9
+
10
+
11
+ ```python
12
+ from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
13
+ import torch
14
+
15
+ # اسم الريبو على Hugging Face
16
+ model_repo = "iko-01/IKOARABICX"
17
+
18
+ # تحميل الـ Tokenizer من النموذج الأساسي (AraGPT2-base) لأن merges_file مفقود في الريبو الخاص بك
19
+ # هذا يحل الخطأ TypeError المتعلق بـ merges_file
20
+ tokenizer = AutoTokenizer.from_pretrained("aubmindlab/aragpt2-base")
21
+
22
+ # تحميل النموذج الخاص بك (IKOARABICX)
23
+ model = AutoModelForCausalLM.from_pretrained(model_repo)
24
+
25
+ # إعداد pipeline لتوليد النص
26
+ generator = pipeline('text-generation', model=model, tokenizer=tokenizer, device=0 if torch.cuda.is_available() else -1) # device=0 لـ GPU، -1 لـ CPU
27
+
28
+ # مثال على prompt للاختبار (يمكن تغييره)
29
+ prompt = "اشرح مفهوم الذكاء الاصطناعي باختصار."
30
+
31
+ # توليد النص
32
+ generated_text = generator(
33
+ prompt,
34
+ max_length=150, # الحد الأقصى للطول (يشمل الـ prompt)
35
+ num_return_sequences=1, # عدد الإجابات
36
+ temperature=0.7, # للتنوع (أقل = أكثر دقة، أعلى = أكثر إبداعًا)
37
+ top_p=0.9, # لتحسين الجودة
38
+ do_sample=True, # لتوليد إبداعي
39
+ pad_token_id=tokenizer.eos_token_id # تجنب تحذيرات
40
+ )
41
+
42
+ # طباعة النتيجة
43
+ response = generated_text[0]['generated_text'].replace(prompt, "").strip()
44
+ print(f"إجابة النموذج:\n{response}")
45
+ ```
46
+
47
+ 5150 2.545200
48
+
49
+
50
+ --- انتهى التدريب! ---
51
+ المدة الإجمالية للتدريب: 39.26 دقيقة.