--- license: apache-2.0 datasets: - farid678/faraz language: - fa base_model: - Qwen/Qwen1.5-1.8B-Chat pipeline_tag: text-generation --- license: apache-2.0 datasets: - farid678/faraz language: - fa base_model: - Qwen/Qwen1.5-1.8B-Chat pipeline_tag: text-generation tags: - fa - persian - fa-text-generation - large-language-model - lora - fine-tuned - qwen - chat model-index: - name: Qwen Fine-Tuned Persian results: - task: text-generation dataset: farid678/faraz metrics: - type: perplexity value: null splits: - name: test type: text --- # توضیحات مدل این مدل یک نسخه **فاین‌تیون شده LoRA** از مدل **Qwen/Qwen1.5-1.8B-Chat** است که بر روی داده‌های فارسی (dataset: `farid678/faraz`) آموزش دیده است. این مدل می‌تواند برای **تولید متن فارسی، چت و پاسخ‌گویی به کاربر** استفاده شود. توجه داشته باشید که مدل **هنوز با LoRA جداگانه است و merge نشده**، بنابراین باید هم مدل پایه و هم LoRA لود شوند تا عملکرد کامل داشته باشد. # استفاده در Python ```python from transformers import AutoModelForCausalLM, AutoTokenizer from peft import PeftModel import torch # لود مدل پایه base_model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-1.8B-Chat", torch_dtype=torch.float16, device_map="auto") # لود LoRA model = PeftModel.from_pretrained(base_model, "farid678/faraz") # لود tokenizer tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-1.8B-Chat") # تولید متن prompt = "یک متن کوتاه درباره مدل‌های زبان بزرگ بنویس" inputs = tokenizer(prompt, return_tensors="pt").to(model.device) outputs = model.generate(**inputs, max_new_tokens=200) print(tokenizer.decode(outputs[0], skip_special_tokens=True))