| language: | |
| - ar | |
| license: apache-2.0 | |
| tags: | |
| - text-generation | |
| - fine-tuning | |
| - arabic | |
| - qwen | |
| datasets: | |
| - local | |
| pipeline_tag: text-generation | |
| # 🧠 Thoth Text Model — InjazSmart | |
| **Thoth Text** هو نموذج لغوي عربي تم تدريبه وتحسينه باستخدام تقنية Fine-Tuning | |
| بهدف تحسين الأداء في المحادثات النصية باللغة العربية والفهم السياقي العميق. | |
| --- | |
| ## 🧩 معلومات عامة | |
| - **الأساس (Base Model):** [Qwen/Qwen2.5-7B-Instruct](https://huggingface.co/Qwen/Qwen2.5-7B-Instruct) | |
| - **نوع الموديل:** Text Generation / Chat | |
| - **المطور:** [InjazSmart](https://huggingface.co/injazsmart) | |
| - **اللغة:** العربية (AR) | |
| - **الترخيص:** Apache 2.0 | |
| --- | |
| ## ⚙️ كيفية الاستخدام | |
| ```python | |
| from transformers import AutoTokenizer, AutoModelForCausalLM | |
| tokenizer = AutoTokenizer.from_pretrained("injazsmart/thoth_text") | |
| model = AutoModelForCausalLM.from_pretrained("injazsmart/thoth_text") | |
| prompt = "اشرح بإيجاز مفهوم الذكاء الاصطناعي." | |
| inputs = tokenizer(prompt, return_tensors="pt").to(model.device) | |
| outputs = model.generate(**inputs, max_new_tokens=200) | |
| print(tokenizer.decode(outputs[0], skip_special_tokens=True)) | |