farazV1 / README.md
farid678's picture
Update README.md
6a99ac9 verified
---
license: apache-2.0
datasets:
- farid678/faraz
language:
- fa
base_model:
- Qwen/Qwen1.5-1.8B-Chat
pipeline_tag: text-generation
---
license: apache-2.0
datasets:
- farid678/faraz
language:
- fa
base_model:
- Qwen/Qwen1.5-1.8B-Chat
pipeline_tag: text-generation
tags:
- fa
- persian
- fa-text-generation
- large-language-model
- lora
- fine-tuned
- qwen
- chat
model-index:
- name: Qwen Fine-Tuned Persian
results:
- task: text-generation
dataset: farid678/faraz
metrics:
- type: perplexity
value: null
splits:
- name: test
type: text
---
# توضیحات مدل
این مدل یک نسخه **فاین‌تیون شده LoRA** از مدل **Qwen/Qwen1.5-1.8B-Chat** است که بر روی داده‌های فارسی (dataset: `farid678/faraz`) آموزش دیده است.
این مدل می‌تواند برای **تولید متن فارسی، چت و پاسخ‌گویی به کاربر** استفاده شود.
توجه داشته باشید که مدل **هنوز با LoRA جداگانه است و merge نشده**، بنابراین باید هم مدل پایه و هم LoRA لود شوند تا عملکرد کامل داشته باشد.
# استفاده در Python
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
import torch
# لود مدل پایه
base_model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-1.8B-Chat", torch_dtype=torch.float16, device_map="auto")
# لود LoRA
model = PeftModel.from_pretrained(base_model, "farid678/faraz")
# لود tokenizer
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-1.8B-Chat")
# تولید متن
prompt = "یک متن کوتاه درباره مدل‌های زبان بزرگ بنویس"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))