BINOMDA commited on
Commit
9749907
·
verified ·
1 Parent(s): a53c1ee

Delete lora_adapters_checkpoint-30/New Text Document.txt

Browse files
lora_adapters_checkpoint-30/New Text Document.txt DELETED
@@ -1,29 +0,0 @@
1
- from unsloth import FastVisionModel
2
- import torch
3
-
4
- # 1. قم بتحميل النموذج الأساسي (نفس النموذج الذي استخدمته في Colab)
5
- # سيتم تنزيله محليًا إذا لم يكن موجودًا بالفعل
6
- model, tokenizer = FastVisionModel.from_pretrained(
7
- "unsloth/Llama-3.2-11B-Vision-Instruct-bnb-4bit", # أو أي نموذج أساسي آخر استخدمته
8
- load_in_4bit = True, # مهم لتشغيله بكفاءة
9
- )
10
-
11
- # 2. قم بتحميل أوزان LoRA Adapters من المسار الذي قمت بالتنزيل إليه
12
- lora_model_path = "/path/to/your/downloaded/checkpoint-30" # <-- **استبدل هذا بالمسار الفعلي للمجلد الذي نزّلته**
13
-
14
- from peft import PeftModel
15
- model = PeftModel.from_pretrained(model, lora_model_path)
16
-
17
- # النموذج الآن جاهز للاستدلال
18
- FastVisionModel.for_inference(model)
19
-
20
- print("تم تحميل النموذج الأساسي وأوزان LoRA بنجاح.")
21
-
22
- # الآن يمكنك استخدام النموذج للاستدلال بنفس طريقة الخلية kR3gIAX-SM2q أو باستخدام الدالة perform_inference التي عرفناها.
23
- # على سبيل المثال:
24
- # image = ... # قم بتحميل صورتك هنا
25
- # instruction = "Describe this image."
26
- # messages = [{"role": "user", "content": [{"type": "image"}, {"type": "text", "text": instruction}]}]
27
- # input_text = tokenizer.apply_chat_template(messages, add_generation_prompt = True)
28
- # inputs = tokenizer(image, input_text, add_special_tokens = False, return_tensors = "pt").to("cuda")
29
- # ... (بقية كود الاستدلال)