| | --- |
| | license: apache-2.0 |
| | datasets: |
| | - farid678/faraz |
| | language: |
| | - fa |
| | base_model: |
| | - Qwen/Qwen1.5-1.8B-Chat |
| | pipeline_tag: text-generation |
| | --- |
| | |
| | license: apache-2.0 |
| | datasets: |
| | - farid678/faraz |
| | language: |
| | - fa |
| | base_model: |
| | - Qwen/Qwen1.5-1.8B-Chat |
| | pipeline_tag: text-generation |
| | tags: |
| | - fa |
| | - persian |
| | - fa-text-generation |
| | - large-language-model |
| | - lora |
| | - fine-tuned |
| | - qwen |
| | - chat |
| |
|
| | model-index: |
| | - name: Qwen Fine-Tuned Persian |
| | results: |
| | - task: text-generation |
| | dataset: farid678/faraz |
| | metrics: |
| | - type: perplexity |
| | value: null |
| | splits: |
| | - name: test |
| | type: text |
| | |
| | --- |
| |
|
| | # توضیحات مدل |
| |
|
| | این مدل یک نسخه **فاینتیون شده LoRA** از مدل **Qwen/Qwen1.5-1.8B-Chat** است که بر روی دادههای فارسی (dataset: `farid678/faraz`) آموزش دیده است. |
| |
|
| | این مدل میتواند برای **تولید متن فارسی، چت و پاسخگویی به کاربر** استفاده شود. |
| | توجه داشته باشید که مدل **هنوز با LoRA جداگانه است و merge نشده**، بنابراین باید هم مدل پایه و هم LoRA لود شوند تا عملکرد کامل داشته باشد. |
| |
|
| | # استفاده در Python |
| |
|
| | ```python |
| | from transformers import AutoModelForCausalLM, AutoTokenizer |
| | from peft import PeftModel |
| | import torch |
| | |
| | # لود مدل پایه |
| | base_model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-1.8B-Chat", torch_dtype=torch.float16, device_map="auto") |
| | |
| | # لود LoRA |
| | model = PeftModel.from_pretrained(base_model, "farid678/faraz") |
| | |
| | # لود tokenizer |
| | tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-1.8B-Chat") |
| | |
| | # تولید متن |
| | prompt = "یک متن کوتاه درباره مدلهای زبان بزرگ بنویس" |
| | inputs = tokenizer(prompt, return_tensors="pt").to(model.device) |
| | outputs = model.generate(**inputs, max_new_tokens=200) |
| | print(tokenizer.decode(outputs[0], skip_special_tokens=True)) |
| | |