File size: 1,903 Bytes
fa57598
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
---
library_name: peft
license: apache-2.0
base_model: Qwen/Qwen2.5-7B-Instruct
tags:
- axolotl
- lora
- transformers
- qwen
- fine-tuning
- text-generation
datasets:
- private/local  # تم استخدام بيانات تدريب محلية غير منشورة
pipeline_tag: text-generation
model-index:
- name: thoth_text_v3
  results: []
---

[<img src="https://raw.githubusercontent.com/axolotl-ai-cloud/axolotl/main/image/axolotl-badge-web.png" alt="Built with Axolotl" width="200"/>](https://github.com/axolotl-ai-cloud/axolotl)

# 🧠 Thoth Text v3

نموذج **Thoth Text v3** هو إصدار مطوّر من **Qwen/Qwen2.5-7B-Instruct**، تم تدريبه باستخدام أسلوب **LoRA fine-tuning** عبر مكتبة **Axolotl**، على بيانات نصية عربية تم إعدادها محليًا (غير منشورة).

---

## 📋 معلومات أساسية

- **Base model:** [Qwen/Qwen2.5-7B-Instruct](https://huggingface.co/Qwen/Qwen2.5-7B-Instruct)  
- **Previous adapters:**  
  - [injazsmart/thoth_text](https://huggingface.co/injazsmart/thoth_text)  
  - [injazsmart/thoth_text_v2](https://huggingface.co/injazsmart/thoth_text_v2)  
- **Current version:** `thoth_text_v3`  
- **Framework:** Axolotl + PEFT + Transformers  
- **Hardware:** 8-bit training على GPU واحد  

---

## ⚙️ إعدادات التدريب (config.yaml)

```yaml
adapter: lora
base_model: Qwen/Qwen2.5-7B-Instruct
bf16: auto

lora_model_dir: injazsmart/thoth_text_v2

datasets:
  - path: ./data/injaz.json
    type: alpaca

sequence_len: 4096
micro_batch_size: 16
gradient_accumulation_steps: 1
num_epochs: 2
learning_rate: 0.0001
optimizer: adamw_bnb_8bit

load_in_8bit: true
lora_r: 8
lora_alpha: 16
lora_dropout: 0.05
lora_target_modules:
  - q_proj
  - v_proj
  - k_proj
  - o_proj
  - gate_proj
  - down_proj
  - up_proj

train_on_inputs: false
output_dir: ./outputs/thoth_text_v3