File size: 1,532 Bytes
a5c27d5
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
# 🤖 Thoth Text Model

## 📘 Overview
**Thoth Text** هو نموذج لغوي عربي مبني على **[Qwen2.5-7B-Instruct](https://huggingface.co/Qwen/Qwen2.5-7B-Instruct)**  
تم تدريبه باستخدام تقنية **LoRA (Low-Rank Adaptation)** لتحسين الأداء في فهم النصوص العربية  
وتوليد إجابات دقيقة في المجالات العامة والتعليمية.

---

## 🧠 Base Model
- **Base:** `Qwen/Qwen2.5-7B-Instruct`
- **Adapter:** LoRA fine-tuned using **Axolotl**
- **Architecture:** Transformer Decoder (Causal LM)
- **Precision:** `bfloat16`
- **Frameworks:** PyTorch + Transformers + PEFT

---

## 🏋️ Fine-tuning Details
- **Library:** [Axolotl](https://github.com/OpenAccess-AI-Collective/axolotl)
- **Adapter Type:** LoRA
- **Learning Rate:** `2e-4`
- **LoRA α:** `16`
- **LoRA r:** `8`
- **Dropout:** `0.05`
- **Batch Size:** `16`
- **Epochs:** `1`
- **Optimizer:** `adamw_bnb_8bit`
- **Sequence Length:** `4096`
- **Compute:** RunPod GPU Instance

---

## 📂 Dataset
> ⚠️ **Note:**  
> The dataset used for fine-tuning is **private and locally stored** at  
> `/workspace/fine-tuning/data/trump.json`  
>
> It follows the **Alpaca-style JSON format**:

```json
[
  {
    "instruction": "اشرح لي مفهوم الذكاء الاصطناعي.",
    "input": "",
    "output": "الذكاء الاصطناعي هو فرع من علوم الحاسوب يهتم بجعل الأنظمة قادرة على التفكير والتعلم."
  }
]