license: apache-2.0 datasets:
- farid678/faraz language:
- fa base_model:
- Qwen/Qwen1.5-1.8B-Chat pipeline_tag: text-generation tags:
- fa
- persian
- fa-text-generation
- large-language-model
- lora
- fine-tuned
- qwen
- chat
model-index:
- name: Qwen Fine-Tuned Persian
results:
- task: text-generation
dataset: farid678/faraz
metrics:
- type: perplexity value: null splits:
- name: test type: text
- task: text-generation
dataset: farid678/faraz
metrics:
توضیحات مدل
این مدل یک نسخه فاینتیون شده LoRA از مدل Qwen/Qwen1.5-1.8B-Chat است که بر روی دادههای فارسی (dataset: farid678/faraz) آموزش دیده است.
این مدل میتواند برای تولید متن فارسی، چت و پاسخگویی به کاربر استفاده شود.
توجه داشته باشید که مدل هنوز با LoRA جداگانه است و merge نشده، بنابراین باید هم مدل پایه و هم LoRA لود شوند تا عملکرد کامل داشته باشد.
استفاده در Python
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
import torch
# لود مدل پایه
base_model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-1.8B-Chat", torch_dtype=torch.float16, device_map="auto")
# لود LoRA
model = PeftModel.from_pretrained(base_model, "farid678/faraz")
# لود tokenizer
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-1.8B-Chat")
# تولید متن
prompt = "یک متن کوتاه درباره مدلهای زبان بزرگ بنویس"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Model tree for farid678/farazV1
Base model
Qwen/Qwen1.5-1.8B-Chat