umutkkgz commited on
Commit
b2bbb17
·
verified ·
1 Parent(s): c99def2

Add files using upload-large-folder tool

Browse files
Files changed (50) hide show
  1. Turkish-Gemma-9b-T1/.gitattributes +38 -0
  2. Turkish-Gemma-9b-T1/README.md +137 -0
  3. Turkish-Gemma-9b-T1/config.json +33 -0
  4. Turkish-Gemma-9b-T1/generation_config.json +11 -0
  5. Turkish-Gemma-9b-T1/model.safetensors.index.json +471 -0
  6. Turkish-Gemma-9b-T1/special_tokens_map.json +34 -0
  7. Turkish-Gemma-9b-T1/tokenizer_config.json +2016 -0
  8. dataset_parts/soru_cevap_dataset/part_01.txt +0 -0
  9. dataset_parts/soru_cevap_dataset800k/part_64.txt +0 -0
  10. dataset_parts/txt/Aidin Salih Gercek Tıp Kitabı.txt +0 -0
  11. dataset_parts/txt/Albert Camus - Yabancı_hocr_searchtext.txt +0 -0
  12. dataset_parts/txt/Albert Champdor - Ölüler Kitabı_hocr_searchtext.txt +0 -0
  13. dataset_parts/txt/Aldous Huxley - Cesur Yeni Dünya_hocr_searchtext.txt +0 -0
  14. dataset_parts/txt/Aleksandr Ostrovski - Bu Hesapta Yoktu_hocr_searchtext.txt +0 -0
  15. dataset_parts/txt/Aleksandr Puşkin - Büyük Petro'nun Arabı_hocr_searchtext.txt +0 -0
  16. dataset_parts/txt/Aleksandr Puşkin - Dubrovski_hocr_searchtext.txt +0 -0
  17. dataset_parts/txt/Aleksandr Puşkin - Küçük Tragedyalar_hocr_searchtext.txt +0 -0
  18. dataset_parts/txt/Aleksandr Puşkin - Yüzbaşının Kızı (2)_hocr_searchtext.txt +0 -0
  19. dataset_parts/txt/Aleksandr Puşkin - Yüzbaşının Kızı_hocr_searchtext.txt +0 -0
  20. dataset_parts/txt/Alev Alatlı - Schrödinger'in Kedisi (Kabus)_hocr_searchtext.txt +0 -0
  21. dataset_parts/txt/Alexandre Dumas - Monte Cristo Kontu (2)_hocr_searchtext.txt +0 -0
  22. dataset_parts/txt/Alexandre Dumas - Monte Cristo Kontu_hocr_searchtext.txt +0 -0
  23. dataset_parts/txt/Alexandre Dumas - Üç Silahşörler_hocr_searchtext.txt +0 -0
  24. dataset_parts/txt/Alfred Bester - Kaplan! Kaplan!_hocr_searchtext.txt +0 -0
  25. dataset_parts/txt/Algan Sezgintüredi - Katilin Uşağı_hocr_searchtext.txt +0 -0
  26. dataset_parts/txt/Ali Karadas - Direnişi Nasıl Dokuduk_hocr_searchtext.txt +0 -0
  27. dataset_parts/txt/Ali Şeriati - Dine Karsi Din_hocr_searchtext.txt +345 -0
  28. dataset_parts/txt/Ali Şeriati - Dinler Tarihi_hocr_searchtext.txt +0 -0
  29. dataset_parts/txt/Allen Carr - Sigarayı Bırakmanın Kolay Yolu_hocr_searchtext.txt +0 -0
  30. dataset_parts/txt/Alphonse Daudet - Degirmenimden Mektuplar_hocr_searchtext.txt +0 -0
  31. dataset_parts/txt/Alphonse Daudet - Pazartesi Öyküleri II_hocr_searchtext.txt +0 -0
  32. dataset_parts/txt/Alphonse Daudet - Pazartesi Öyküleri I_hocr_searchtext.txt +0 -0
  33. dataset_parts/txt/Amin Maalouf - Doğunun Limanları_hocr_searchtext.txt +0 -0
  34. dataset_parts/txt/Amin Maalouf - Ölümcül Kimlikler_hocr_searchtext.txt +0 -0
  35. dataset_parts/txt/Amin Maalouf - Semerkant_hocr_searchtext.txt +0 -0
  36. dataset_parts/txt/Anadolu Medeniyetleri_hocr_searchtext.txt +0 -0
  37. dataset_parts/txt/Anatole France - Thais_hocr_searchtext.txt +0 -0
  38. dataset_parts/txt/Andersen - Secme Masallar I_hocr_searchtext.txt +0 -0
  39. dataset_parts/txt/Andre Breton-NADJA_hocr_searchtext.txt +0 -0
  40. dataset_parts/txt/Andre Clot - Muhteşem Süleyman_hocr_searchtext.txt +0 -0
  41. dataset_parts/txt/Sentence-Boundary-Train.txt +0 -0
  42. dataset_parts/txt/hayvan çiftliği.txt +0 -0
  43. dataset_parts/yemek_tagged/part_01.txt +0 -0
  44. kaira_tokenizer_forced.vocab +0 -0
  45. komutlar.sh +38 -0
  46. merged_vocab.vocab +0 -0
  47. pretreaning2048.py +900 -0
  48. requirements.txt +19 -0
  49. sayac.py +55 -0
  50. setup_ubuntu_kaira.sh +48 -0
Turkish-Gemma-9b-T1/.gitattributes ADDED
@@ -0,0 +1,38 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ *.7z filter=lfs diff=lfs merge=lfs -text
2
+ *.arrow filter=lfs diff=lfs merge=lfs -text
3
+ *.bin filter=lfs diff=lfs merge=lfs -text
4
+ *.bz2 filter=lfs diff=lfs merge=lfs -text
5
+ *.ckpt filter=lfs diff=lfs merge=lfs -text
6
+ *.ftz filter=lfs diff=lfs merge=lfs -text
7
+ *.gz filter=lfs diff=lfs merge=lfs -text
8
+ *.h5 filter=lfs diff=lfs merge=lfs -text
9
+ *.joblib filter=lfs diff=lfs merge=lfs -text
10
+ *.lfs.* filter=lfs diff=lfs merge=lfs -text
11
+ *.mlmodel filter=lfs diff=lfs merge=lfs -text
12
+ *.model filter=lfs diff=lfs merge=lfs -text
13
+ *.msgpack filter=lfs diff=lfs merge=lfs -text
14
+ *.npy filter=lfs diff=lfs merge=lfs -text
15
+ *.npz filter=lfs diff=lfs merge=lfs -text
16
+ *.onnx filter=lfs diff=lfs merge=lfs -text
17
+ *.ot filter=lfs diff=lfs merge=lfs -text
18
+ *.parquet filter=lfs diff=lfs merge=lfs -text
19
+ *.pb filter=lfs diff=lfs merge=lfs -text
20
+ *.pickle filter=lfs diff=lfs merge=lfs -text
21
+ *.pkl filter=lfs diff=lfs merge=lfs -text
22
+ *.pt filter=lfs diff=lfs merge=lfs -text
23
+ *.pth filter=lfs diff=lfs merge=lfs -text
24
+ *.rar filter=lfs diff=lfs merge=lfs -text
25
+ *.safetensors filter=lfs diff=lfs merge=lfs -text
26
+ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
27
+ *.tar.* filter=lfs diff=lfs merge=lfs -text
28
+ *.tar filter=lfs diff=lfs merge=lfs -text
29
+ *.tflite filter=lfs diff=lfs merge=lfs -text
30
+ *.tgz filter=lfs diff=lfs merge=lfs -text
31
+ *.wasm filter=lfs diff=lfs merge=lfs -text
32
+ *.xz filter=lfs diff=lfs merge=lfs -text
33
+ *.zip filter=lfs diff=lfs merge=lfs -text
34
+ *.zst filter=lfs diff=lfs merge=lfs -text
35
+ *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
37
+ Turkish_Gemma.png filter=lfs diff=lfs merge=lfs -text
38
+ Turkish_gemma.png filter=lfs diff=lfs merge=lfs -text
Turkish-Gemma-9b-T1/README.md ADDED
@@ -0,0 +1,137 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: gemma
3
+ language:
4
+ - tr
5
+ pipeline_tag: text-generation
6
+ base_model: google/gemma2-9b
7
+ tags:
8
+ - Turkish
9
+ - gemma2
10
+ - DPO
11
+ - SFT
12
+ - conversational
13
+ - instruction
14
+ - reasoning
15
+ - thinking
16
+ ---
17
+
18
+ <img src="./Turkish_gemma.png"/>
19
+
20
+ # Turkish-Gemma-9b-T1
21
+
22
+ Turkish-Gemma-9b-T1 is based on ytu-ce-cosmos/Turkish-Gemma-9b-v0.1, adapted specifically for multi-step reasoning (“thinking”) in Turkish.
23
+
24
+ The model is designed to perform better at mathematical problems, logical reasoning, step-by-step inference, and planning tasks, while still following instructions to produce clear and concise final answers.
25
+
26
+ # 🚀 What’s New in the Reasoning Version?
27
+
28
+ - **Multi-step reasoning:** Stronger intermediate inference when multiple clues/conditions are involved.
29
+
30
+ - **Math & logic:** Improved accuracy on arithmetic, probability, sequences, rational reasoning, and logic puzzles.
31
+
32
+ - **Better instruction following:** Better adherence to prompts.
33
+
34
+ - **Reduced hallucinations:** The reasoning model hallucinates less, focusing on grounded answers and indicating uncertainty when necessary.
35
+
36
+ To evaluate model performance, we compiled a dataset of 1,450 carefully designed questions across diverse categories. Each question was reviewed and rated by 18 human annotators, allowing for a reliable comparison across multiple models.
37
+
38
+ The table below summarizes the evaluation results:
39
+
40
+ ### 🏆 Model Comparison: Win Rates
41
+
42
+ | Model Name | Win Rate |
43
+ | -------------------------------------------- | ---------- |
44
+ | **ytu-ce-cosmos/Turkish-Gemma-9b-T1** | **68.65%** |
45
+ | **ytu-ce-cosmos/Turkish-Gemma-9b-T0** | **67.58%** |
46
+ | Qwen3-32B | 67.20% |
47
+ | Qwen3-14B | 67.20% |
48
+ | google/gemma-3-27b-it | 65.81% |
49
+ | google/gemma-3-12b-it | 59.72% |
50
+ | google/gemma-2-27b-it | 52.24% |
51
+ | **ytu-ce-cosmos/Turkish-Gemma-9b-v0.1** | 52.12% |
52
+ | google/gemma-2-9b-it | 48.94% |
53
+
54
+ ### Voting Metodology
55
+
56
+ A question and two answers from different models were presented to human judges. The judges selected the better answer based on their preferences. For example, in the question below, the judge evaluated both answers as good:
57
+ <img src="./voting_new.png"/>
58
+
59
+ ### 📊 Turkish Evaluation Gsm8k Benchmark Results
60
+
61
+ | Model Name | Gsm8K |
62
+ | --------------------------------------- | --------- |
63
+ | Qwen/Qwen2.5-72B-Instruct | 83.60 |
64
+ | Qwen/Qwen2.5-32B-Instruct | 77.83 |
65
+ | google/gemma-3-27b-it | 77.52 |
66
+ | **ytu-ce-cosmos/Turkish-Gemma-9b-T1** | **77.41** |
67
+ | Qwen/Qwen2.5-14B-it | 76.77 |
68
+ | google/gemma-2-27b-it | 76.54 |
69
+ | **ytu-ce-cosmos/Turkish-Gemma-9b-v0.1** | **73.42** |
70
+ | google/gemma-3-12b-it | 72.06 |
71
+ | meta-llama/Llama-3-1-70B-Instruct | 66.13 |
72
+ | Qwen/Qwen2.5-7B-Instruct | 64.16 |
73
+ | google/gemma-2-9b-it | 63.10 |
74
+ | ytu-ce-cosmos/Turkish-Llama-8b-DPO-v0.1 | 59.87 |
75
+
76
+
77
+ > **Note:** When running Turkish evaluations on well-known benchmarks, it is important to adjust the evaluation configurations specifically for **reasoning models**. Default settings may not reflect the true performance, as factors like context handling and prompt formatting can significantly affect results. Carefully tuning these configs ensures fairer and more accurate comparisons across models.
78
+
79
+
80
+
81
+ ### Quick Start
82
+
83
+ The examples below demonstrate how to use the model to generate content based on given inputs.
84
+
85
+ ```python
86
+ from transformers import AutoTokenizer, AutoModelForCausalLM
87
+ import torch
88
+ model_id = "ytu-ce-cosmos/Turkish-Gemma-9b-T1"
89
+ tokenizer = AutoTokenizer.from_pretrained(model_id)
90
+ model = AutoModelForCausalLM.from_pretrained(
91
+ model_id,
92
+ torch_dtype=torch.bfloat16,
93
+ device_map="auto",
94
+ )
95
+ messages = [
96
+ {"role": "user", "content": "İstanbul halkı, timsahları evcilleştirip balkonlarda beslemeyi alışkanlık hale getirmiştir. Hangi timsah türleri en çok tercih edilir?"}
97
+ ]
98
+ input_ids = tokenizer.apply_chat_template(
99
+ messages,
100
+ add_generation_prompt=True,
101
+ return_tensors="pt"
102
+ ).to(model.device)
103
+ terminators = [
104
+ pipeline.tokenizer.eos_token_id,
105
+ pipeline.tokenizer.convert_tokens_to_ids("<end_of_turn>")
106
+ ]
107
+ outputs = model.generate(
108
+ input_ids,
109
+ max_new_tokens=4096,
110
+ eos_token_id=terminators,
111
+ do_sample=False,
112
+ )
113
+ response = outputs[0][input_ids.shape[-1]:]
114
+ print(tokenizer.decode(response, skip_special_tokens=True))
115
+
116
+ ```
117
+
118
+ # Tips
119
+ > Use `Temperature=0.6`, `TopP=0.95`, `TopK=20`, and `MinP=0` (the default setting in `generation_config.json`). **DO NOT use greedy decoding**, as it can lead to performance degradation and endless repetitions.
120
+ - **Complex tasks:** Increase `max_new_tokens`. You can increase the `repetition penalty` and also adjust the `presence_penalty` parameter (between 0 and 2) to reduce endless repetitions. However, using a higher value may occasionally result in language mixing and a slight decrease in model performance
121
+
122
+ # Acknowledgments
123
+
124
+ Thanks to Hugging Face for hosting models on S3 storage.
125
+
126
+ Compute resources were provided by the Barcelona Supercomputing Center
127
+
128
+ # Contact
129
+
130
+ **COSMOS AI Research Group** – Yildiz Technical University, Computer Engineering Department
131
+ 🔗 [https://cosmos.yildiz.edu.tr/](https://cosmos.yildiz.edu.tr/)
132
+ ✉️ cosmos@yildiz.edu.tr
133
+
134
+ ---
135
+ license: gemma2
136
+ ---
137
+
Turkish-Gemma-9b-T1/config.json ADDED
@@ -0,0 +1,33 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "Gemma2ForCausalLM"
4
+ ],
5
+ "attention_bias": false,
6
+ "attention_dropout": 0.0,
7
+ "attn_logit_softcapping": 50.0,
8
+ "bos_token_id": 2,
9
+ "cache_implementation": "hybrid",
10
+ "eos_token_id": 1,
11
+ "final_logit_softcapping": 30.0,
12
+ "head_dim": 256,
13
+ "hidden_act": "gelu_pytorch_tanh",
14
+ "hidden_activation": "gelu_pytorch_tanh",
15
+ "hidden_size": 3584,
16
+ "initializer_range": 0.02,
17
+ "intermediate_size": 14336,
18
+ "max_position_embeddings": 8192,
19
+ "model_type": "gemma2",
20
+ "num_attention_heads": 16,
21
+ "num_hidden_layers": 42,
22
+ "num_key_value_heads": 8,
23
+ "pad_token_id": 0,
24
+ "query_pre_attn_scalar": 256,
25
+ "rms_norm_eps": 1e-06,
26
+ "rope_theta": 10000.0,
27
+ "sliding_window": 4096,
28
+ "sliding_window_size": 4096,
29
+ "torch_dtype": "bfloat16",
30
+ "transformers_version": "4.51.3",
31
+ "use_cache": false,
32
+ "vocab_size": 256000
33
+ }
Turkish-Gemma-9b-T1/generation_config.json ADDED
@@ -0,0 +1,11 @@
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_from_model_config": true,
3
+ "bos_token_id": 2,
4
+ "cache_implementation": "hybrid",
5
+ "eos_token_id": 1,
6
+ "pad_token_id": 0,
7
+ "transformers_version": "4.51.3",
8
+ "temperature": 0.6,
9
+ "top_k": 20,
10
+ "top_p": 0.95,
11
+ }
Turkish-Gemma-9b-T1/model.safetensors.index.json ADDED
@@ -0,0 +1,471 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "metadata": {
3
+ "total_size": 18483411968
4
+ },
5
+ "weight_map": {
6
+ "model.embed_tokens.weight": "model-00001-of-00004.safetensors",
7
+ "model.layers.0.input_layernorm.weight": "model-00001-of-00004.safetensors",
8
+ "model.layers.0.mlp.down_proj.weight": "model-00001-of-00004.safetensors",
9
+ "model.layers.0.mlp.gate_proj.weight": "model-00001-of-00004.safetensors",
10
+ "model.layers.0.mlp.up_proj.weight": "model-00001-of-00004.safetensors",
11
+ "model.layers.0.post_attention_layernorm.weight": "model-00001-of-00004.safetensors",
12
+ "model.layers.0.post_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
13
+ "model.layers.0.pre_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
14
+ "model.layers.0.self_attn.k_proj.weight": "model-00001-of-00004.safetensors",
15
+ "model.layers.0.self_attn.o_proj.weight": "model-00001-of-00004.safetensors",
16
+ "model.layers.0.self_attn.q_proj.weight": "model-00001-of-00004.safetensors",
17
+ "model.layers.0.self_attn.v_proj.weight": "model-00001-of-00004.safetensors",
18
+ "model.layers.1.input_layernorm.weight": "model-00001-of-00004.safetensors",
19
+ "model.layers.1.mlp.down_proj.weight": "model-00001-of-00004.safetensors",
20
+ "model.layers.1.mlp.gate_proj.weight": "model-00001-of-00004.safetensors",
21
+ "model.layers.1.mlp.up_proj.weight": "model-00001-of-00004.safetensors",
22
+ "model.layers.1.post_attention_layernorm.weight": "model-00001-of-00004.safetensors",
23
+ "model.layers.1.post_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
24
+ "model.layers.1.pre_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
25
+ "model.layers.1.self_attn.k_proj.weight": "model-00001-of-00004.safetensors",
26
+ "model.layers.1.self_attn.o_proj.weight": "model-00001-of-00004.safetensors",
27
+ "model.layers.1.self_attn.q_proj.weight": "model-00001-of-00004.safetensors",
28
+ "model.layers.1.self_attn.v_proj.weight": "model-00001-of-00004.safetensors",
29
+ "model.layers.10.input_layernorm.weight": "model-00002-of-00004.safetensors",
30
+ "model.layers.10.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
31
+ "model.layers.10.mlp.gate_proj.weight": "model-00002-of-00004.safetensors",
32
+ "model.layers.10.mlp.up_proj.weight": "model-00002-of-00004.safetensors",
33
+ "model.layers.10.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
34
+ "model.layers.10.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
35
+ "model.layers.10.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
36
+ "model.layers.10.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
37
+ "model.layers.10.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
38
+ "model.layers.10.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
39
+ "model.layers.10.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
40
+ "model.layers.11.input_layernorm.weight": "model-00002-of-00004.safetensors",
41
+ "model.layers.11.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
42
+ "model.layers.11.mlp.gate_proj.weight": "model-00002-of-00004.safetensors",
43
+ "model.layers.11.mlp.up_proj.weight": "model-00002-of-00004.safetensors",
44
+ "model.layers.11.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
45
+ "model.layers.11.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
46
+ "model.layers.11.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
47
+ "model.layers.11.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
48
+ "model.layers.11.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
49
+ "model.layers.11.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
50
+ "model.layers.11.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
51
+ "model.layers.12.input_layernorm.weight": "model-00002-of-00004.safetensors",
52
+ "model.layers.12.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
53
+ "model.layers.12.mlp.gate_proj.weight": "model-00002-of-00004.safetensors",
54
+ "model.layers.12.mlp.up_proj.weight": "model-00002-of-00004.safetensors",
55
+ "model.layers.12.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
56
+ "model.layers.12.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
57
+ "model.layers.12.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
58
+ "model.layers.12.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
59
+ "model.layers.12.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
60
+ "model.layers.12.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
61
+ "model.layers.12.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
62
+ "model.layers.13.input_layernorm.weight": "model-00002-of-00004.safetensors",
63
+ "model.layers.13.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
64
+ "model.layers.13.mlp.gate_proj.weight": "model-00002-of-00004.safetensors",
65
+ "model.layers.13.mlp.up_proj.weight": "model-00002-of-00004.safetensors",
66
+ "model.layers.13.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
67
+ "model.layers.13.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
68
+ "model.layers.13.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
69
+ "model.layers.13.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
70
+ "model.layers.13.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
71
+ "model.layers.13.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
72
+ "model.layers.13.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
73
+ "model.layers.14.input_layernorm.weight": "model-00002-of-00004.safetensors",
74
+ "model.layers.14.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
75
+ "model.layers.14.mlp.gate_proj.weight": "model-00002-of-00004.safetensors",
76
+ "model.layers.14.mlp.up_proj.weight": "model-00002-of-00004.safetensors",
77
+ "model.layers.14.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
78
+ "model.layers.14.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
79
+ "model.layers.14.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
80
+ "model.layers.14.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
81
+ "model.layers.14.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
82
+ "model.layers.14.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
83
+ "model.layers.14.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
84
+ "model.layers.15.input_layernorm.weight": "model-00002-of-00004.safetensors",
85
+ "model.layers.15.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
86
+ "model.layers.15.mlp.gate_proj.weight": "model-00002-of-00004.safetensors",
87
+ "model.layers.15.mlp.up_proj.weight": "model-00002-of-00004.safetensors",
88
+ "model.layers.15.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
89
+ "model.layers.15.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
90
+ "model.layers.15.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
91
+ "model.layers.15.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
92
+ "model.layers.15.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
93
+ "model.layers.15.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
94
+ "model.layers.15.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
95
+ "model.layers.16.input_layernorm.weight": "model-00002-of-00004.safetensors",
96
+ "model.layers.16.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
97
+ "model.layers.16.mlp.gate_proj.weight": "model-00002-of-00004.safetensors",
98
+ "model.layers.16.mlp.up_proj.weight": "model-00002-of-00004.safetensors",
99
+ "model.layers.16.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
100
+ "model.layers.16.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
101
+ "model.layers.16.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
102
+ "model.layers.16.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
103
+ "model.layers.16.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
104
+ "model.layers.16.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
105
+ "model.layers.16.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
106
+ "model.layers.17.input_layernorm.weight": "model-00002-of-00004.safetensors",
107
+ "model.layers.17.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
108
+ "model.layers.17.mlp.gate_proj.weight": "model-00002-of-00004.safetensors",
109
+ "model.layers.17.mlp.up_proj.weight": "model-00002-of-00004.safetensors",
110
+ "model.layers.17.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
111
+ "model.layers.17.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
112
+ "model.layers.17.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
113
+ "model.layers.17.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
114
+ "model.layers.17.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
115
+ "model.layers.17.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
116
+ "model.layers.17.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
117
+ "model.layers.18.input_layernorm.weight": "model-00002-of-00004.safetensors",
118
+ "model.layers.18.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
119
+ "model.layers.18.mlp.gate_proj.weight": "model-00002-of-00004.safetensors",
120
+ "model.layers.18.mlp.up_proj.weight": "model-00002-of-00004.safetensors",
121
+ "model.layers.18.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
122
+ "model.layers.18.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
123
+ "model.layers.18.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
124
+ "model.layers.18.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
125
+ "model.layers.18.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
126
+ "model.layers.18.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
127
+ "model.layers.18.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
128
+ "model.layers.19.input_layernorm.weight": "model-00002-of-00004.safetensors",
129
+ "model.layers.19.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
130
+ "model.layers.19.mlp.gate_proj.weight": "model-00002-of-00004.safetensors",
131
+ "model.layers.19.mlp.up_proj.weight": "model-00002-of-00004.safetensors",
132
+ "model.layers.19.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
133
+ "model.layers.19.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
134
+ "model.layers.19.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
135
+ "model.layers.19.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
136
+ "model.layers.19.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
137
+ "model.layers.19.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
138
+ "model.layers.19.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
139
+ "model.layers.2.input_layernorm.weight": "model-00001-of-00004.safetensors",
140
+ "model.layers.2.mlp.down_proj.weight": "model-00001-of-00004.safetensors",
141
+ "model.layers.2.mlp.gate_proj.weight": "model-00001-of-00004.safetensors",
142
+ "model.layers.2.mlp.up_proj.weight": "model-00001-of-00004.safetensors",
143
+ "model.layers.2.post_attention_layernorm.weight": "model-00001-of-00004.safetensors",
144
+ "model.layers.2.post_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
145
+ "model.layers.2.pre_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
146
+ "model.layers.2.self_attn.k_proj.weight": "model-00001-of-00004.safetensors",
147
+ "model.layers.2.self_attn.o_proj.weight": "model-00001-of-00004.safetensors",
148
+ "model.layers.2.self_attn.q_proj.weight": "model-00001-of-00004.safetensors",
149
+ "model.layers.2.self_attn.v_proj.weight": "model-00001-of-00004.safetensors",
150
+ "model.layers.20.input_layernorm.weight": "model-00003-of-00004.safetensors",
151
+ "model.layers.20.mlp.down_proj.weight": "model-00003-of-00004.safetensors",
152
+ "model.layers.20.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
153
+ "model.layers.20.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
154
+ "model.layers.20.post_attention_layernorm.weight": "model-00003-of-00004.safetensors",
155
+ "model.layers.20.post_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
156
+ "model.layers.20.pre_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
157
+ "model.layers.20.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
158
+ "model.layers.20.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
159
+ "model.layers.20.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
160
+ "model.layers.20.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
161
+ "model.layers.21.input_layernorm.weight": "model-00003-of-00004.safetensors",
162
+ "model.layers.21.mlp.down_proj.weight": "model-00003-of-00004.safetensors",
163
+ "model.layers.21.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
164
+ "model.layers.21.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
165
+ "model.layers.21.post_attention_layernorm.weight": "model-00003-of-00004.safetensors",
166
+ "model.layers.21.post_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
167
+ "model.layers.21.pre_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
168
+ "model.layers.21.self_attn.k_proj.weight": "model-00003-of-00004.safetensors",
169
+ "model.layers.21.self_attn.o_proj.weight": "model-00003-of-00004.safetensors",
170
+ "model.layers.21.self_attn.q_proj.weight": "model-00003-of-00004.safetensors",
171
+ "model.layers.21.self_attn.v_proj.weight": "model-00003-of-00004.safetensors",
172
+ "model.layers.22.input_layernorm.weight": "model-00003-of-00004.safetensors",
173
+ "model.layers.22.mlp.down_proj.weight": "model-00003-of-00004.safetensors",
174
+ "model.layers.22.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
175
+ "model.layers.22.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
176
+ "model.layers.22.post_attention_layernorm.weight": "model-00003-of-00004.safetensors",
177
+ "model.layers.22.post_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
178
+ "model.layers.22.pre_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
179
+ "model.layers.22.self_attn.k_proj.weight": "model-00003-of-00004.safetensors",
180
+ "model.layers.22.self_attn.o_proj.weight": "model-00003-of-00004.safetensors",
181
+ "model.layers.22.self_attn.q_proj.weight": "model-00003-of-00004.safetensors",
182
+ "model.layers.22.self_attn.v_proj.weight": "model-00003-of-00004.safetensors",
183
+ "model.layers.23.input_layernorm.weight": "model-00003-of-00004.safetensors",
184
+ "model.layers.23.mlp.down_proj.weight": "model-00003-of-00004.safetensors",
185
+ "model.layers.23.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
186
+ "model.layers.23.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
187
+ "model.layers.23.post_attention_layernorm.weight": "model-00003-of-00004.safetensors",
188
+ "model.layers.23.post_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
189
+ "model.layers.23.pre_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
190
+ "model.layers.23.self_attn.k_proj.weight": "model-00003-of-00004.safetensors",
191
+ "model.layers.23.self_attn.o_proj.weight": "model-00003-of-00004.safetensors",
192
+ "model.layers.23.self_attn.q_proj.weight": "model-00003-of-00004.safetensors",
193
+ "model.layers.23.self_attn.v_proj.weight": "model-00003-of-00004.safetensors",
194
+ "model.layers.24.input_layernorm.weight": "model-00003-of-00004.safetensors",
195
+ "model.layers.24.mlp.down_proj.weight": "model-00003-of-00004.safetensors",
196
+ "model.layers.24.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
197
+ "model.layers.24.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
198
+ "model.layers.24.post_attention_layernorm.weight": "model-00003-of-00004.safetensors",
199
+ "model.layers.24.post_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
200
+ "model.layers.24.pre_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
201
+ "model.layers.24.self_attn.k_proj.weight": "model-00003-of-00004.safetensors",
202
+ "model.layers.24.self_attn.o_proj.weight": "model-00003-of-00004.safetensors",
203
+ "model.layers.24.self_attn.q_proj.weight": "model-00003-of-00004.safetensors",
204
+ "model.layers.24.self_attn.v_proj.weight": "model-00003-of-00004.safetensors",
205
+ "model.layers.25.input_layernorm.weight": "model-00003-of-00004.safetensors",
206
+ "model.layers.25.mlp.down_proj.weight": "model-00003-of-00004.safetensors",
207
+ "model.layers.25.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
208
+ "model.layers.25.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
209
+ "model.layers.25.post_attention_layernorm.weight": "model-00003-of-00004.safetensors",
210
+ "model.layers.25.post_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
211
+ "model.layers.25.pre_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
212
+ "model.layers.25.self_attn.k_proj.weight": "model-00003-of-00004.safetensors",
213
+ "model.layers.25.self_attn.o_proj.weight": "model-00003-of-00004.safetensors",
214
+ "model.layers.25.self_attn.q_proj.weight": "model-00003-of-00004.safetensors",
215
+ "model.layers.25.self_attn.v_proj.weight": "model-00003-of-00004.safetensors",
216
+ "model.layers.26.input_layernorm.weight": "model-00003-of-00004.safetensors",
217
+ "model.layers.26.mlp.down_proj.weight": "model-00003-of-00004.safetensors",
218
+ "model.layers.26.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
219
+ "model.layers.26.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
220
+ "model.layers.26.post_attention_layernorm.weight": "model-00003-of-00004.safetensors",
221
+ "model.layers.26.post_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
222
+ "model.layers.26.pre_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
223
+ "model.layers.26.self_attn.k_proj.weight": "model-00003-of-00004.safetensors",
224
+ "model.layers.26.self_attn.o_proj.weight": "model-00003-of-00004.safetensors",
225
+ "model.layers.26.self_attn.q_proj.weight": "model-00003-of-00004.safetensors",
226
+ "model.layers.26.self_attn.v_proj.weight": "model-00003-of-00004.safetensors",
227
+ "model.layers.27.input_layernorm.weight": "model-00003-of-00004.safetensors",
228
+ "model.layers.27.mlp.down_proj.weight": "model-00003-of-00004.safetensors",
229
+ "model.layers.27.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
230
+ "model.layers.27.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
231
+ "model.layers.27.post_attention_layernorm.weight": "model-00003-of-00004.safetensors",
232
+ "model.layers.27.post_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
233
+ "model.layers.27.pre_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
234
+ "model.layers.27.self_attn.k_proj.weight": "model-00003-of-00004.safetensors",
235
+ "model.layers.27.self_attn.o_proj.weight": "model-00003-of-00004.safetensors",
236
+ "model.layers.27.self_attn.q_proj.weight": "model-00003-of-00004.safetensors",
237
+ "model.layers.27.self_attn.v_proj.weight": "model-00003-of-00004.safetensors",
238
+ "model.layers.28.input_layernorm.weight": "model-00003-of-00004.safetensors",
239
+ "model.layers.28.mlp.down_proj.weight": "model-00003-of-00004.safetensors",
240
+ "model.layers.28.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
241
+ "model.layers.28.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
242
+ "model.layers.28.post_attention_layernorm.weight": "model-00003-of-00004.safetensors",
243
+ "model.layers.28.post_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
244
+ "model.layers.28.pre_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
245
+ "model.layers.28.self_attn.k_proj.weight": "model-00003-of-00004.safetensors",
246
+ "model.layers.28.self_attn.o_proj.weight": "model-00003-of-00004.safetensors",
247
+ "model.layers.28.self_attn.q_proj.weight": "model-00003-of-00004.safetensors",
248
+ "model.layers.28.self_attn.v_proj.weight": "model-00003-of-00004.safetensors",
249
+ "model.layers.29.input_layernorm.weight": "model-00003-of-00004.safetensors",
250
+ "model.layers.29.mlp.down_proj.weight": "model-00003-of-00004.safetensors",
251
+ "model.layers.29.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
252
+ "model.layers.29.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
253
+ "model.layers.29.post_attention_layernorm.weight": "model-00003-of-00004.safetensors",
254
+ "model.layers.29.post_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
255
+ "model.layers.29.pre_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
256
+ "model.layers.29.self_attn.k_proj.weight": "model-00003-of-00004.safetensors",
257
+ "model.layers.29.self_attn.o_proj.weight": "model-00003-of-00004.safetensors",
258
+ "model.layers.29.self_attn.q_proj.weight": "model-00003-of-00004.safetensors",
259
+ "model.layers.29.self_attn.v_proj.weight": "model-00003-of-00004.safetensors",
260
+ "model.layers.3.input_layernorm.weight": "model-00001-of-00004.safetensors",
261
+ "model.layers.3.mlp.down_proj.weight": "model-00001-of-00004.safetensors",
262
+ "model.layers.3.mlp.gate_proj.weight": "model-00001-of-00004.safetensors",
263
+ "model.layers.3.mlp.up_proj.weight": "model-00001-of-00004.safetensors",
264
+ "model.layers.3.post_attention_layernorm.weight": "model-00001-of-00004.safetensors",
265
+ "model.layers.3.post_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
266
+ "model.layers.3.pre_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
267
+ "model.layers.3.self_attn.k_proj.weight": "model-00001-of-00004.safetensors",
268
+ "model.layers.3.self_attn.o_proj.weight": "model-00001-of-00004.safetensors",
269
+ "model.layers.3.self_attn.q_proj.weight": "model-00001-of-00004.safetensors",
270
+ "model.layers.3.self_attn.v_proj.weight": "model-00001-of-00004.safetensors",
271
+ "model.layers.30.input_layernorm.weight": "model-00003-of-00004.safetensors",
272
+ "model.layers.30.mlp.down_proj.weight": "model-00003-of-00004.safetensors",
273
+ "model.layers.30.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
274
+ "model.layers.30.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
275
+ "model.layers.30.post_attention_layernorm.weight": "model-00003-of-00004.safetensors",
276
+ "model.layers.30.post_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
277
+ "model.layers.30.pre_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
278
+ "model.layers.30.self_attn.k_proj.weight": "model-00003-of-00004.safetensors",
279
+ "model.layers.30.self_attn.o_proj.weight": "model-00003-of-00004.safetensors",
280
+ "model.layers.30.self_attn.q_proj.weight": "model-00003-of-00004.safetensors",
281
+ "model.layers.30.self_attn.v_proj.weight": "model-00003-of-00004.safetensors",
282
+ "model.layers.31.input_layernorm.weight": "model-00003-of-00004.safetensors",
283
+ "model.layers.31.mlp.down_proj.weight": "model-00003-of-00004.safetensors",
284
+ "model.layers.31.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
285
+ "model.layers.31.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
286
+ "model.layers.31.post_attention_layernorm.weight": "model-00003-of-00004.safetensors",
287
+ "model.layers.31.post_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
288
+ "model.layers.31.pre_feedforward_layernorm.weight": "model-00003-of-00004.safetensors",
289
+ "model.layers.31.self_attn.k_proj.weight": "model-00003-of-00004.safetensors",
290
+ "model.layers.31.self_attn.o_proj.weight": "model-00003-of-00004.safetensors",
291
+ "model.layers.31.self_attn.q_proj.weight": "model-00003-of-00004.safetensors",
292
+ "model.layers.31.self_attn.v_proj.weight": "model-00003-of-00004.safetensors",
293
+ "model.layers.32.input_layernorm.weight": "model-00004-of-00004.safetensors",
294
+ "model.layers.32.mlp.down_proj.weight": "model-00004-of-00004.safetensors",
295
+ "model.layers.32.mlp.gate_proj.weight": "model-00003-of-00004.safetensors",
296
+ "model.layers.32.mlp.up_proj.weight": "model-00003-of-00004.safetensors",
297
+ "model.layers.32.post_attention_layernorm.weight": "model-00004-of-00004.safetensors",
298
+ "model.layers.32.post_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
299
+ "model.layers.32.pre_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
300
+ "model.layers.32.self_attn.k_proj.weight": "model-00003-of-00004.safetensors",
301
+ "model.layers.32.self_attn.o_proj.weight": "model-00003-of-00004.safetensors",
302
+ "model.layers.32.self_attn.q_proj.weight": "model-00003-of-00004.safetensors",
303
+ "model.layers.32.self_attn.v_proj.weight": "model-00003-of-00004.safetensors",
304
+ "model.layers.33.input_layernorm.weight": "model-00004-of-00004.safetensors",
305
+ "model.layers.33.mlp.down_proj.weight": "model-00004-of-00004.safetensors",
306
+ "model.layers.33.mlp.gate_proj.weight": "model-00004-of-00004.safetensors",
307
+ "model.layers.33.mlp.up_proj.weight": "model-00004-of-00004.safetensors",
308
+ "model.layers.33.post_attention_layernorm.weight": "model-00004-of-00004.safetensors",
309
+ "model.layers.33.post_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
310
+ "model.layers.33.pre_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
311
+ "model.layers.33.self_attn.k_proj.weight": "model-00004-of-00004.safetensors",
312
+ "model.layers.33.self_attn.o_proj.weight": "model-00004-of-00004.safetensors",
313
+ "model.layers.33.self_attn.q_proj.weight": "model-00004-of-00004.safetensors",
314
+ "model.layers.33.self_attn.v_proj.weight": "model-00004-of-00004.safetensors",
315
+ "model.layers.34.input_layernorm.weight": "model-00004-of-00004.safetensors",
316
+ "model.layers.34.mlp.down_proj.weight": "model-00004-of-00004.safetensors",
317
+ "model.layers.34.mlp.gate_proj.weight": "model-00004-of-00004.safetensors",
318
+ "model.layers.34.mlp.up_proj.weight": "model-00004-of-00004.safetensors",
319
+ "model.layers.34.post_attention_layernorm.weight": "model-00004-of-00004.safetensors",
320
+ "model.layers.34.post_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
321
+ "model.layers.34.pre_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
322
+ "model.layers.34.self_attn.k_proj.weight": "model-00004-of-00004.safetensors",
323
+ "model.layers.34.self_attn.o_proj.weight": "model-00004-of-00004.safetensors",
324
+ "model.layers.34.self_attn.q_proj.weight": "model-00004-of-00004.safetensors",
325
+ "model.layers.34.self_attn.v_proj.weight": "model-00004-of-00004.safetensors",
326
+ "model.layers.35.input_layernorm.weight": "model-00004-of-00004.safetensors",
327
+ "model.layers.35.mlp.down_proj.weight": "model-00004-of-00004.safetensors",
328
+ "model.layers.35.mlp.gate_proj.weight": "model-00004-of-00004.safetensors",
329
+ "model.layers.35.mlp.up_proj.weight": "model-00004-of-00004.safetensors",
330
+ "model.layers.35.post_attention_layernorm.weight": "model-00004-of-00004.safetensors",
331
+ "model.layers.35.post_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
332
+ "model.layers.35.pre_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
333
+ "model.layers.35.self_attn.k_proj.weight": "model-00004-of-00004.safetensors",
334
+ "model.layers.35.self_attn.o_proj.weight": "model-00004-of-00004.safetensors",
335
+ "model.layers.35.self_attn.q_proj.weight": "model-00004-of-00004.safetensors",
336
+ "model.layers.35.self_attn.v_proj.weight": "model-00004-of-00004.safetensors",
337
+ "model.layers.36.input_layernorm.weight": "model-00004-of-00004.safetensors",
338
+ "model.layers.36.mlp.down_proj.weight": "model-00004-of-00004.safetensors",
339
+ "model.layers.36.mlp.gate_proj.weight": "model-00004-of-00004.safetensors",
340
+ "model.layers.36.mlp.up_proj.weight": "model-00004-of-00004.safetensors",
341
+ "model.layers.36.post_attention_layernorm.weight": "model-00004-of-00004.safetensors",
342
+ "model.layers.36.post_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
343
+ "model.layers.36.pre_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
344
+ "model.layers.36.self_attn.k_proj.weight": "model-00004-of-00004.safetensors",
345
+ "model.layers.36.self_attn.o_proj.weight": "model-00004-of-00004.safetensors",
346
+ "model.layers.36.self_attn.q_proj.weight": "model-00004-of-00004.safetensors",
347
+ "model.layers.36.self_attn.v_proj.weight": "model-00004-of-00004.safetensors",
348
+ "model.layers.37.input_layernorm.weight": "model-00004-of-00004.safetensors",
349
+ "model.layers.37.mlp.down_proj.weight": "model-00004-of-00004.safetensors",
350
+ "model.layers.37.mlp.gate_proj.weight": "model-00004-of-00004.safetensors",
351
+ "model.layers.37.mlp.up_proj.weight": "model-00004-of-00004.safetensors",
352
+ "model.layers.37.post_attention_layernorm.weight": "model-00004-of-00004.safetensors",
353
+ "model.layers.37.post_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
354
+ "model.layers.37.pre_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
355
+ "model.layers.37.self_attn.k_proj.weight": "model-00004-of-00004.safetensors",
356
+ "model.layers.37.self_attn.o_proj.weight": "model-00004-of-00004.safetensors",
357
+ "model.layers.37.self_attn.q_proj.weight": "model-00004-of-00004.safetensors",
358
+ "model.layers.37.self_attn.v_proj.weight": "model-00004-of-00004.safetensors",
359
+ "model.layers.38.input_layernorm.weight": "model-00004-of-00004.safetensors",
360
+ "model.layers.38.mlp.down_proj.weight": "model-00004-of-00004.safetensors",
361
+ "model.layers.38.mlp.gate_proj.weight": "model-00004-of-00004.safetensors",
362
+ "model.layers.38.mlp.up_proj.weight": "model-00004-of-00004.safetensors",
363
+ "model.layers.38.post_attention_layernorm.weight": "model-00004-of-00004.safetensors",
364
+ "model.layers.38.post_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
365
+ "model.layers.38.pre_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
366
+ "model.layers.38.self_attn.k_proj.weight": "model-00004-of-00004.safetensors",
367
+ "model.layers.38.self_attn.o_proj.weight": "model-00004-of-00004.safetensors",
368
+ "model.layers.38.self_attn.q_proj.weight": "model-00004-of-00004.safetensors",
369
+ "model.layers.38.self_attn.v_proj.weight": "model-00004-of-00004.safetensors",
370
+ "model.layers.39.input_layernorm.weight": "model-00004-of-00004.safetensors",
371
+ "model.layers.39.mlp.down_proj.weight": "model-00004-of-00004.safetensors",
372
+ "model.layers.39.mlp.gate_proj.weight": "model-00004-of-00004.safetensors",
373
+ "model.layers.39.mlp.up_proj.weight": "model-00004-of-00004.safetensors",
374
+ "model.layers.39.post_attention_layernorm.weight": "model-00004-of-00004.safetensors",
375
+ "model.layers.39.post_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
376
+ "model.layers.39.pre_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
377
+ "model.layers.39.self_attn.k_proj.weight": "model-00004-of-00004.safetensors",
378
+ "model.layers.39.self_attn.o_proj.weight": "model-00004-of-00004.safetensors",
379
+ "model.layers.39.self_attn.q_proj.weight": "model-00004-of-00004.safetensors",
380
+ "model.layers.39.self_attn.v_proj.weight": "model-00004-of-00004.safetensors",
381
+ "model.layers.4.input_layernorm.weight": "model-00001-of-00004.safetensors",
382
+ "model.layers.4.mlp.down_proj.weight": "model-00001-of-00004.safetensors",
383
+ "model.layers.4.mlp.gate_proj.weight": "model-00001-of-00004.safetensors",
384
+ "model.layers.4.mlp.up_proj.weight": "model-00001-of-00004.safetensors",
385
+ "model.layers.4.post_attention_layernorm.weight": "model-00001-of-00004.safetensors",
386
+ "model.layers.4.post_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
387
+ "model.layers.4.pre_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
388
+ "model.layers.4.self_attn.k_proj.weight": "model-00001-of-00004.safetensors",
389
+ "model.layers.4.self_attn.o_proj.weight": "model-00001-of-00004.safetensors",
390
+ "model.layers.4.self_attn.q_proj.weight": "model-00001-of-00004.safetensors",
391
+ "model.layers.4.self_attn.v_proj.weight": "model-00001-of-00004.safetensors",
392
+ "model.layers.40.input_layernorm.weight": "model-00004-of-00004.safetensors",
393
+ "model.layers.40.mlp.down_proj.weight": "model-00004-of-00004.safetensors",
394
+ "model.layers.40.mlp.gate_proj.weight": "model-00004-of-00004.safetensors",
395
+ "model.layers.40.mlp.up_proj.weight": "model-00004-of-00004.safetensors",
396
+ "model.layers.40.post_attention_layernorm.weight": "model-00004-of-00004.safetensors",
397
+ "model.layers.40.post_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
398
+ "model.layers.40.pre_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
399
+ "model.layers.40.self_attn.k_proj.weight": "model-00004-of-00004.safetensors",
400
+ "model.layers.40.self_attn.o_proj.weight": "model-00004-of-00004.safetensors",
401
+ "model.layers.40.self_attn.q_proj.weight": "model-00004-of-00004.safetensors",
402
+ "model.layers.40.self_attn.v_proj.weight": "model-00004-of-00004.safetensors",
403
+ "model.layers.41.input_layernorm.weight": "model-00004-of-00004.safetensors",
404
+ "model.layers.41.mlp.down_proj.weight": "model-00004-of-00004.safetensors",
405
+ "model.layers.41.mlp.gate_proj.weight": "model-00004-of-00004.safetensors",
406
+ "model.layers.41.mlp.up_proj.weight": "model-00004-of-00004.safetensors",
407
+ "model.layers.41.post_attention_layernorm.weight": "model-00004-of-00004.safetensors",
408
+ "model.layers.41.post_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
409
+ "model.layers.41.pre_feedforward_layernorm.weight": "model-00004-of-00004.safetensors",
410
+ "model.layers.41.self_attn.k_proj.weight": "model-00004-of-00004.safetensors",
411
+ "model.layers.41.self_attn.o_proj.weight": "model-00004-of-00004.safetensors",
412
+ "model.layers.41.self_attn.q_proj.weight": "model-00004-of-00004.safetensors",
413
+ "model.layers.41.self_attn.v_proj.weight": "model-00004-of-00004.safetensors",
414
+ "model.layers.5.input_layernorm.weight": "model-00001-of-00004.safetensors",
415
+ "model.layers.5.mlp.down_proj.weight": "model-00001-of-00004.safetensors",
416
+ "model.layers.5.mlp.gate_proj.weight": "model-00001-of-00004.safetensors",
417
+ "model.layers.5.mlp.up_proj.weight": "model-00001-of-00004.safetensors",
418
+ "model.layers.5.post_attention_layernorm.weight": "model-00001-of-00004.safetensors",
419
+ "model.layers.5.post_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
420
+ "model.layers.5.pre_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
421
+ "model.layers.5.self_attn.k_proj.weight": "model-00001-of-00004.safetensors",
422
+ "model.layers.5.self_attn.o_proj.weight": "model-00001-of-00004.safetensors",
423
+ "model.layers.5.self_attn.q_proj.weight": "model-00001-of-00004.safetensors",
424
+ "model.layers.5.self_attn.v_proj.weight": "model-00001-of-00004.safetensors",
425
+ "model.layers.6.input_layernorm.weight": "model-00001-of-00004.safetensors",
426
+ "model.layers.6.mlp.down_proj.weight": "model-00001-of-00004.safetensors",
427
+ "model.layers.6.mlp.gate_proj.weight": "model-00001-of-00004.safetensors",
428
+ "model.layers.6.mlp.up_proj.weight": "model-00001-of-00004.safetensors",
429
+ "model.layers.6.post_attention_layernorm.weight": "model-00001-of-00004.safetensors",
430
+ "model.layers.6.post_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
431
+ "model.layers.6.pre_feedforward_layernorm.weight": "model-00001-of-00004.safetensors",
432
+ "model.layers.6.self_attn.k_proj.weight": "model-00001-of-00004.safetensors",
433
+ "model.layers.6.self_attn.o_proj.weight": "model-00001-of-00004.safetensors",
434
+ "model.layers.6.self_attn.q_proj.weight": "model-00001-of-00004.safetensors",
435
+ "model.layers.6.self_attn.v_proj.weight": "model-00001-of-00004.safetensors",
436
+ "model.layers.7.input_layernorm.weight": "model-00002-of-00004.safetensors",
437
+ "model.layers.7.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
438
+ "model.layers.7.mlp.gate_proj.weight": "model-00001-of-00004.safetensors",
439
+ "model.layers.7.mlp.up_proj.weight": "model-00001-of-00004.safetensors",
440
+ "model.layers.7.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
441
+ "model.layers.7.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
442
+ "model.layers.7.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
443
+ "model.layers.7.self_attn.k_proj.weight": "model-00001-of-00004.safetensors",
444
+ "model.layers.7.self_attn.o_proj.weight": "model-00001-of-00004.safetensors",
445
+ "model.layers.7.self_attn.q_proj.weight": "model-00001-of-00004.safetensors",
446
+ "model.layers.7.self_attn.v_proj.weight": "model-00001-of-00004.safetensors",
447
+ "model.layers.8.input_layernorm.weight": "model-00002-of-00004.safetensors",
448
+ "model.layers.8.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
449
+ "model.layers.8.mlp.gate_proj.weight": "model-00002-of-00004.safetensors",
450
+ "model.layers.8.mlp.up_proj.weight": "model-00002-of-00004.safetensors",
451
+ "model.layers.8.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
452
+ "model.layers.8.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
453
+ "model.layers.8.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
454
+ "model.layers.8.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
455
+ "model.layers.8.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
456
+ "model.layers.8.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
457
+ "model.layers.8.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
458
+ "model.layers.9.input_layernorm.weight": "model-00002-of-00004.safetensors",
459
+ "model.layers.9.mlp.down_proj.weight": "model-00002-of-00004.safetensors",
460
+ "model.layers.9.mlp.gate_proj.weight": "model-00002-of-00004.safetensors",
461
+ "model.layers.9.mlp.up_proj.weight": "model-00002-of-00004.safetensors",
462
+ "model.layers.9.post_attention_layernorm.weight": "model-00002-of-00004.safetensors",
463
+ "model.layers.9.post_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
464
+ "model.layers.9.pre_feedforward_layernorm.weight": "model-00002-of-00004.safetensors",
465
+ "model.layers.9.self_attn.k_proj.weight": "model-00002-of-00004.safetensors",
466
+ "model.layers.9.self_attn.o_proj.weight": "model-00002-of-00004.safetensors",
467
+ "model.layers.9.self_attn.q_proj.weight": "model-00002-of-00004.safetensors",
468
+ "model.layers.9.self_attn.v_proj.weight": "model-00002-of-00004.safetensors",
469
+ "model.norm.weight": "model-00004-of-00004.safetensors"
470
+ }
471
+ }
Turkish-Gemma-9b-T1/special_tokens_map.json ADDED
@@ -0,0 +1,34 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "additional_special_tokens": [
3
+ "<start_of_turn>",
4
+ "<end_of_turn>"
5
+ ],
6
+ "bos_token": {
7
+ "content": "<bos>",
8
+ "lstrip": false,
9
+ "normalized": false,
10
+ "rstrip": false,
11
+ "single_word": false
12
+ },
13
+ "eos_token": {
14
+ "content": "<end_of_turn>",
15
+ "lstrip": false,
16
+ "normalized": false,
17
+ "rstrip": false,
18
+ "single_word": false
19
+ },
20
+ "pad_token": {
21
+ "content": "<pad>",
22
+ "lstrip": false,
23
+ "normalized": false,
24
+ "rstrip": false,
25
+ "single_word": false
26
+ },
27
+ "unk_token": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false
33
+ }
34
+ }
Turkish-Gemma-9b-T1/tokenizer_config.json ADDED
@@ -0,0 +1,2016 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_bos_token": true,
3
+ "add_eos_token": false,
4
+ "added_tokens_decoder": {
5
+ "0": {
6
+ "content": "<pad>",
7
+ "lstrip": false,
8
+ "normalized": false,
9
+ "rstrip": false,
10
+ "single_word": false,
11
+ "special": true
12
+ },
13
+ "1": {
14
+ "content": "<eos>",
15
+ "lstrip": false,
16
+ "normalized": false,
17
+ "rstrip": false,
18
+ "single_word": false,
19
+ "special": true
20
+ },
21
+ "2": {
22
+ "content": "<bos>",
23
+ "lstrip": false,
24
+ "normalized": false,
25
+ "rstrip": false,
26
+ "single_word": false,
27
+ "special": true
28
+ },
29
+ "3": {
30
+ "content": "<unk>",
31
+ "lstrip": false,
32
+ "normalized": false,
33
+ "rstrip": false,
34
+ "single_word": false,
35
+ "special": true
36
+ },
37
+ "4": {
38
+ "content": "<mask>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false,
43
+ "special": false
44
+ },
45
+ "5": {
46
+ "content": "<2mass>",
47
+ "lstrip": false,
48
+ "normalized": false,
49
+ "rstrip": false,
50
+ "single_word": false,
51
+ "special": false
52
+ },
53
+ "6": {
54
+ "content": "[@BOS@]",
55
+ "lstrip": false,
56
+ "normalized": false,
57
+ "rstrip": false,
58
+ "single_word": false,
59
+ "special": false
60
+ },
61
+ "7": {
62
+ "content": "<think>",
63
+ "lstrip": false,
64
+ "normalized": false,
65
+ "rstrip": false,
66
+ "single_word": false,
67
+ "special": false
68
+ },
69
+ "8": {
70
+ "content": "</think>",
71
+ "lstrip": false,
72
+ "normalized": false,
73
+ "rstrip": false,
74
+ "single_word": false,
75
+ "special": false
76
+ },
77
+ "9": {
78
+ "content": "<unused2>",
79
+ "lstrip": false,
80
+ "normalized": false,
81
+ "rstrip": false,
82
+ "single_word": false,
83
+ "special": false
84
+ },
85
+ "10": {
86
+ "content": "<unused3>",
87
+ "lstrip": false,
88
+ "normalized": false,
89
+ "rstrip": false,
90
+ "single_word": false,
91
+ "special": false
92
+ },
93
+ "11": {
94
+ "content": "<unused4>",
95
+ "lstrip": false,
96
+ "normalized": false,
97
+ "rstrip": false,
98
+ "single_word": false,
99
+ "special": false
100
+ },
101
+ "12": {
102
+ "content": "<unused5>",
103
+ "lstrip": false,
104
+ "normalized": false,
105
+ "rstrip": false,
106
+ "single_word": false,
107
+ "special": false
108
+ },
109
+ "13": {
110
+ "content": "<unused6>",
111
+ "lstrip": false,
112
+ "normalized": false,
113
+ "rstrip": false,
114
+ "single_word": false,
115
+ "special": false
116
+ },
117
+ "14": {
118
+ "content": "<unused7>",
119
+ "lstrip": false,
120
+ "normalized": false,
121
+ "rstrip": false,
122
+ "single_word": false,
123
+ "special": false
124
+ },
125
+ "15": {
126
+ "content": "<unused8>",
127
+ "lstrip": false,
128
+ "normalized": false,
129
+ "rstrip": false,
130
+ "single_word": false,
131
+ "special": false
132
+ },
133
+ "16": {
134
+ "content": "<unused9>",
135
+ "lstrip": false,
136
+ "normalized": false,
137
+ "rstrip": false,
138
+ "single_word": false,
139
+ "special": false
140
+ },
141
+ "17": {
142
+ "content": "<unused10>",
143
+ "lstrip": false,
144
+ "normalized": false,
145
+ "rstrip": false,
146
+ "single_word": false,
147
+ "special": false
148
+ },
149
+ "18": {
150
+ "content": "<unused11>",
151
+ "lstrip": false,
152
+ "normalized": false,
153
+ "rstrip": false,
154
+ "single_word": false,
155
+ "special": false
156
+ },
157
+ "19": {
158
+ "content": "<unused12>",
159
+ "lstrip": false,
160
+ "normalized": false,
161
+ "rstrip": false,
162
+ "single_word": false,
163
+ "special": false
164
+ },
165
+ "20": {
166
+ "content": "<unused13>",
167
+ "lstrip": false,
168
+ "normalized": false,
169
+ "rstrip": false,
170
+ "single_word": false,
171
+ "special": false
172
+ },
173
+ "21": {
174
+ "content": "<unused14>",
175
+ "lstrip": false,
176
+ "normalized": false,
177
+ "rstrip": false,
178
+ "single_word": false,
179
+ "special": false
180
+ },
181
+ "22": {
182
+ "content": "<unused15>",
183
+ "lstrip": false,
184
+ "normalized": false,
185
+ "rstrip": false,
186
+ "single_word": false,
187
+ "special": false
188
+ },
189
+ "23": {
190
+ "content": "<unused16>",
191
+ "lstrip": false,
192
+ "normalized": false,
193
+ "rstrip": false,
194
+ "single_word": false,
195
+ "special": false
196
+ },
197
+ "24": {
198
+ "content": "<unused17>",
199
+ "lstrip": false,
200
+ "normalized": false,
201
+ "rstrip": false,
202
+ "single_word": false,
203
+ "special": false
204
+ },
205
+ "25": {
206
+ "content": "<unused18>",
207
+ "lstrip": false,
208
+ "normalized": false,
209
+ "rstrip": false,
210
+ "single_word": false,
211
+ "special": false
212
+ },
213
+ "26": {
214
+ "content": "<unused19>",
215
+ "lstrip": false,
216
+ "normalized": false,
217
+ "rstrip": false,
218
+ "single_word": false,
219
+ "special": false
220
+ },
221
+ "27": {
222
+ "content": "<unused20>",
223
+ "lstrip": false,
224
+ "normalized": false,
225
+ "rstrip": false,
226
+ "single_word": false,
227
+ "special": false
228
+ },
229
+ "28": {
230
+ "content": "<unused21>",
231
+ "lstrip": false,
232
+ "normalized": false,
233
+ "rstrip": false,
234
+ "single_word": false,
235
+ "special": false
236
+ },
237
+ "29": {
238
+ "content": "<unused22>",
239
+ "lstrip": false,
240
+ "normalized": false,
241
+ "rstrip": false,
242
+ "single_word": false,
243
+ "special": false
244
+ },
245
+ "30": {
246
+ "content": "<unused23>",
247
+ "lstrip": false,
248
+ "normalized": false,
249
+ "rstrip": false,
250
+ "single_word": false,
251
+ "special": false
252
+ },
253
+ "31": {
254
+ "content": "<unused24>",
255
+ "lstrip": false,
256
+ "normalized": false,
257
+ "rstrip": false,
258
+ "single_word": false,
259
+ "special": false
260
+ },
261
+ "32": {
262
+ "content": "<unused25>",
263
+ "lstrip": false,
264
+ "normalized": false,
265
+ "rstrip": false,
266
+ "single_word": false,
267
+ "special": false
268
+ },
269
+ "33": {
270
+ "content": "<unused26>",
271
+ "lstrip": false,
272
+ "normalized": false,
273
+ "rstrip": false,
274
+ "single_word": false,
275
+ "special": false
276
+ },
277
+ "34": {
278
+ "content": "<unused27>",
279
+ "lstrip": false,
280
+ "normalized": false,
281
+ "rstrip": false,
282
+ "single_word": false,
283
+ "special": false
284
+ },
285
+ "35": {
286
+ "content": "<unused28>",
287
+ "lstrip": false,
288
+ "normalized": false,
289
+ "rstrip": false,
290
+ "single_word": false,
291
+ "special": false
292
+ },
293
+ "36": {
294
+ "content": "<unused29>",
295
+ "lstrip": false,
296
+ "normalized": false,
297
+ "rstrip": false,
298
+ "single_word": false,
299
+ "special": false
300
+ },
301
+ "37": {
302
+ "content": "<unused30>",
303
+ "lstrip": false,
304
+ "normalized": false,
305
+ "rstrip": false,
306
+ "single_word": false,
307
+ "special": false
308
+ },
309
+ "38": {
310
+ "content": "<unused31>",
311
+ "lstrip": false,
312
+ "normalized": false,
313
+ "rstrip": false,
314
+ "single_word": false,
315
+ "special": false
316
+ },
317
+ "39": {
318
+ "content": "<unused32>",
319
+ "lstrip": false,
320
+ "normalized": false,
321
+ "rstrip": false,
322
+ "single_word": false,
323
+ "special": false
324
+ },
325
+ "40": {
326
+ "content": "<unused33>",
327
+ "lstrip": false,
328
+ "normalized": false,
329
+ "rstrip": false,
330
+ "single_word": false,
331
+ "special": false
332
+ },
333
+ "41": {
334
+ "content": "<unused34>",
335
+ "lstrip": false,
336
+ "normalized": false,
337
+ "rstrip": false,
338
+ "single_word": false,
339
+ "special": false
340
+ },
341
+ "42": {
342
+ "content": "<unused35>",
343
+ "lstrip": false,
344
+ "normalized": false,
345
+ "rstrip": false,
346
+ "single_word": false,
347
+ "special": false
348
+ },
349
+ "43": {
350
+ "content": "<unused36>",
351
+ "lstrip": false,
352
+ "normalized": false,
353
+ "rstrip": false,
354
+ "single_word": false,
355
+ "special": false
356
+ },
357
+ "44": {
358
+ "content": "<unused37>",
359
+ "lstrip": false,
360
+ "normalized": false,
361
+ "rstrip": false,
362
+ "single_word": false,
363
+ "special": false
364
+ },
365
+ "45": {
366
+ "content": "<unused38>",
367
+ "lstrip": false,
368
+ "normalized": false,
369
+ "rstrip": false,
370
+ "single_word": false,
371
+ "special": false
372
+ },
373
+ "46": {
374
+ "content": "<unused39>",
375
+ "lstrip": false,
376
+ "normalized": false,
377
+ "rstrip": false,
378
+ "single_word": false,
379
+ "special": false
380
+ },
381
+ "47": {
382
+ "content": "<unused40>",
383
+ "lstrip": false,
384
+ "normalized": false,
385
+ "rstrip": false,
386
+ "single_word": false,
387
+ "special": false
388
+ },
389
+ "48": {
390
+ "content": "<unused41>",
391
+ "lstrip": false,
392
+ "normalized": false,
393
+ "rstrip": false,
394
+ "single_word": false,
395
+ "special": false
396
+ },
397
+ "49": {
398
+ "content": "<unused42>",
399
+ "lstrip": false,
400
+ "normalized": false,
401
+ "rstrip": false,
402
+ "single_word": false,
403
+ "special": false
404
+ },
405
+ "50": {
406
+ "content": "<unused43>",
407
+ "lstrip": false,
408
+ "normalized": false,
409
+ "rstrip": false,
410
+ "single_word": false,
411
+ "special": false
412
+ },
413
+ "51": {
414
+ "content": "<unused44>",
415
+ "lstrip": false,
416
+ "normalized": false,
417
+ "rstrip": false,
418
+ "single_word": false,
419
+ "special": false
420
+ },
421
+ "52": {
422
+ "content": "<unused45>",
423
+ "lstrip": false,
424
+ "normalized": false,
425
+ "rstrip": false,
426
+ "single_word": false,
427
+ "special": false
428
+ },
429
+ "53": {
430
+ "content": "<unused46>",
431
+ "lstrip": false,
432
+ "normalized": false,
433
+ "rstrip": false,
434
+ "single_word": false,
435
+ "special": false
436
+ },
437
+ "54": {
438
+ "content": "<unused47>",
439
+ "lstrip": false,
440
+ "normalized": false,
441
+ "rstrip": false,
442
+ "single_word": false,
443
+ "special": false
444
+ },
445
+ "55": {
446
+ "content": "<unused48>",
447
+ "lstrip": false,
448
+ "normalized": false,
449
+ "rstrip": false,
450
+ "single_word": false,
451
+ "special": false
452
+ },
453
+ "56": {
454
+ "content": "<unused49>",
455
+ "lstrip": false,
456
+ "normalized": false,
457
+ "rstrip": false,
458
+ "single_word": false,
459
+ "special": false
460
+ },
461
+ "57": {
462
+ "content": "<unused50>",
463
+ "lstrip": false,
464
+ "normalized": false,
465
+ "rstrip": false,
466
+ "single_word": false,
467
+ "special": false
468
+ },
469
+ "58": {
470
+ "content": "<unused51>",
471
+ "lstrip": false,
472
+ "normalized": false,
473
+ "rstrip": false,
474
+ "single_word": false,
475
+ "special": false
476
+ },
477
+ "59": {
478
+ "content": "<unused52>",
479
+ "lstrip": false,
480
+ "normalized": false,
481
+ "rstrip": false,
482
+ "single_word": false,
483
+ "special": false
484
+ },
485
+ "60": {
486
+ "content": "<unused53>",
487
+ "lstrip": false,
488
+ "normalized": false,
489
+ "rstrip": false,
490
+ "single_word": false,
491
+ "special": false
492
+ },
493
+ "61": {
494
+ "content": "<unused54>",
495
+ "lstrip": false,
496
+ "normalized": false,
497
+ "rstrip": false,
498
+ "single_word": false,
499
+ "special": false
500
+ },
501
+ "62": {
502
+ "content": "<unused55>",
503
+ "lstrip": false,
504
+ "normalized": false,
505
+ "rstrip": false,
506
+ "single_word": false,
507
+ "special": false
508
+ },
509
+ "63": {
510
+ "content": "<unused56>",
511
+ "lstrip": false,
512
+ "normalized": false,
513
+ "rstrip": false,
514
+ "single_word": false,
515
+ "special": false
516
+ },
517
+ "64": {
518
+ "content": "<unused57>",
519
+ "lstrip": false,
520
+ "normalized": false,
521
+ "rstrip": false,
522
+ "single_word": false,
523
+ "special": false
524
+ },
525
+ "65": {
526
+ "content": "<unused58>",
527
+ "lstrip": false,
528
+ "normalized": false,
529
+ "rstrip": false,
530
+ "single_word": false,
531
+ "special": false
532
+ },
533
+ "66": {
534
+ "content": "<unused59>",
535
+ "lstrip": false,
536
+ "normalized": false,
537
+ "rstrip": false,
538
+ "single_word": false,
539
+ "special": false
540
+ },
541
+ "67": {
542
+ "content": "<unused60>",
543
+ "lstrip": false,
544
+ "normalized": false,
545
+ "rstrip": false,
546
+ "single_word": false,
547
+ "special": false
548
+ },
549
+ "68": {
550
+ "content": "<unused61>",
551
+ "lstrip": false,
552
+ "normalized": false,
553
+ "rstrip": false,
554
+ "single_word": false,
555
+ "special": false
556
+ },
557
+ "69": {
558
+ "content": "<unused62>",
559
+ "lstrip": false,
560
+ "normalized": false,
561
+ "rstrip": false,
562
+ "single_word": false,
563
+ "special": false
564
+ },
565
+ "70": {
566
+ "content": "<unused63>",
567
+ "lstrip": false,
568
+ "normalized": false,
569
+ "rstrip": false,
570
+ "single_word": false,
571
+ "special": false
572
+ },
573
+ "71": {
574
+ "content": "<unused64>",
575
+ "lstrip": false,
576
+ "normalized": false,
577
+ "rstrip": false,
578
+ "single_word": false,
579
+ "special": false
580
+ },
581
+ "72": {
582
+ "content": "<unused65>",
583
+ "lstrip": false,
584
+ "normalized": false,
585
+ "rstrip": false,
586
+ "single_word": false,
587
+ "special": false
588
+ },
589
+ "73": {
590
+ "content": "<unused66>",
591
+ "lstrip": false,
592
+ "normalized": false,
593
+ "rstrip": false,
594
+ "single_word": false,
595
+ "special": false
596
+ },
597
+ "74": {
598
+ "content": "<unused67>",
599
+ "lstrip": false,
600
+ "normalized": false,
601
+ "rstrip": false,
602
+ "single_word": false,
603
+ "special": false
604
+ },
605
+ "75": {
606
+ "content": "<unused68>",
607
+ "lstrip": false,
608
+ "normalized": false,
609
+ "rstrip": false,
610
+ "single_word": false,
611
+ "special": false
612
+ },
613
+ "76": {
614
+ "content": "<unused69>",
615
+ "lstrip": false,
616
+ "normalized": false,
617
+ "rstrip": false,
618
+ "single_word": false,
619
+ "special": false
620
+ },
621
+ "77": {
622
+ "content": "<unused70>",
623
+ "lstrip": false,
624
+ "normalized": false,
625
+ "rstrip": false,
626
+ "single_word": false,
627
+ "special": false
628
+ },
629
+ "78": {
630
+ "content": "<unused71>",
631
+ "lstrip": false,
632
+ "normalized": false,
633
+ "rstrip": false,
634
+ "single_word": false,
635
+ "special": false
636
+ },
637
+ "79": {
638
+ "content": "<unused72>",
639
+ "lstrip": false,
640
+ "normalized": false,
641
+ "rstrip": false,
642
+ "single_word": false,
643
+ "special": false
644
+ },
645
+ "80": {
646
+ "content": "<unused73>",
647
+ "lstrip": false,
648
+ "normalized": false,
649
+ "rstrip": false,
650
+ "single_word": false,
651
+ "special": false
652
+ },
653
+ "81": {
654
+ "content": "<unused74>",
655
+ "lstrip": false,
656
+ "normalized": false,
657
+ "rstrip": false,
658
+ "single_word": false,
659
+ "special": false
660
+ },
661
+ "82": {
662
+ "content": "<unused75>",
663
+ "lstrip": false,
664
+ "normalized": false,
665
+ "rstrip": false,
666
+ "single_word": false,
667
+ "special": false
668
+ },
669
+ "83": {
670
+ "content": "<unused76>",
671
+ "lstrip": false,
672
+ "normalized": false,
673
+ "rstrip": false,
674
+ "single_word": false,
675
+ "special": false
676
+ },
677
+ "84": {
678
+ "content": "<unused77>",
679
+ "lstrip": false,
680
+ "normalized": false,
681
+ "rstrip": false,
682
+ "single_word": false,
683
+ "special": false
684
+ },
685
+ "85": {
686
+ "content": "<unused78>",
687
+ "lstrip": false,
688
+ "normalized": false,
689
+ "rstrip": false,
690
+ "single_word": false,
691
+ "special": false
692
+ },
693
+ "86": {
694
+ "content": "<unused79>",
695
+ "lstrip": false,
696
+ "normalized": false,
697
+ "rstrip": false,
698
+ "single_word": false,
699
+ "special": false
700
+ },
701
+ "87": {
702
+ "content": "<unused80>",
703
+ "lstrip": false,
704
+ "normalized": false,
705
+ "rstrip": false,
706
+ "single_word": false,
707
+ "special": false
708
+ },
709
+ "88": {
710
+ "content": "<unused81>",
711
+ "lstrip": false,
712
+ "normalized": false,
713
+ "rstrip": false,
714
+ "single_word": false,
715
+ "special": false
716
+ },
717
+ "89": {
718
+ "content": "<unused82>",
719
+ "lstrip": false,
720
+ "normalized": false,
721
+ "rstrip": false,
722
+ "single_word": false,
723
+ "special": false
724
+ },
725
+ "90": {
726
+ "content": "<unused83>",
727
+ "lstrip": false,
728
+ "normalized": false,
729
+ "rstrip": false,
730
+ "single_word": false,
731
+ "special": false
732
+ },
733
+ "91": {
734
+ "content": "<unused84>",
735
+ "lstrip": false,
736
+ "normalized": false,
737
+ "rstrip": false,
738
+ "single_word": false,
739
+ "special": false
740
+ },
741
+ "92": {
742
+ "content": "<unused85>",
743
+ "lstrip": false,
744
+ "normalized": false,
745
+ "rstrip": false,
746
+ "single_word": false,
747
+ "special": false
748
+ },
749
+ "93": {
750
+ "content": "<unused86>",
751
+ "lstrip": false,
752
+ "normalized": false,
753
+ "rstrip": false,
754
+ "single_word": false,
755
+ "special": false
756
+ },
757
+ "94": {
758
+ "content": "<unused87>",
759
+ "lstrip": false,
760
+ "normalized": false,
761
+ "rstrip": false,
762
+ "single_word": false,
763
+ "special": false
764
+ },
765
+ "95": {
766
+ "content": "<unused88>",
767
+ "lstrip": false,
768
+ "normalized": false,
769
+ "rstrip": false,
770
+ "single_word": false,
771
+ "special": false
772
+ },
773
+ "96": {
774
+ "content": "<unused89>",
775
+ "lstrip": false,
776
+ "normalized": false,
777
+ "rstrip": false,
778
+ "single_word": false,
779
+ "special": false
780
+ },
781
+ "97": {
782
+ "content": "<unused90>",
783
+ "lstrip": false,
784
+ "normalized": false,
785
+ "rstrip": false,
786
+ "single_word": false,
787
+ "special": false
788
+ },
789
+ "98": {
790
+ "content": "<unused91>",
791
+ "lstrip": false,
792
+ "normalized": false,
793
+ "rstrip": false,
794
+ "single_word": false,
795
+ "special": false
796
+ },
797
+ "99": {
798
+ "content": "<unused92>",
799
+ "lstrip": false,
800
+ "normalized": false,
801
+ "rstrip": false,
802
+ "single_word": false,
803
+ "special": false
804
+ },
805
+ "100": {
806
+ "content": "<unused93>",
807
+ "lstrip": false,
808
+ "normalized": false,
809
+ "rstrip": false,
810
+ "single_word": false,
811
+ "special": false
812
+ },
813
+ "101": {
814
+ "content": "<unused94>",
815
+ "lstrip": false,
816
+ "normalized": false,
817
+ "rstrip": false,
818
+ "single_word": false,
819
+ "special": false
820
+ },
821
+ "102": {
822
+ "content": "<unused95>",
823
+ "lstrip": false,
824
+ "normalized": false,
825
+ "rstrip": false,
826
+ "single_word": false,
827
+ "special": false
828
+ },
829
+ "103": {
830
+ "content": "<unused96>",
831
+ "lstrip": false,
832
+ "normalized": false,
833
+ "rstrip": false,
834
+ "single_word": false,
835
+ "special": false
836
+ },
837
+ "104": {
838
+ "content": "<unused97>",
839
+ "lstrip": false,
840
+ "normalized": false,
841
+ "rstrip": false,
842
+ "single_word": false,
843
+ "special": false
844
+ },
845
+ "105": {
846
+ "content": "<unused98>",
847
+ "lstrip": false,
848
+ "normalized": false,
849
+ "rstrip": false,
850
+ "single_word": false,
851
+ "special": false
852
+ },
853
+ "106": {
854
+ "content": "<start_of_turn>",
855
+ "lstrip": false,
856
+ "normalized": false,
857
+ "rstrip": false,
858
+ "single_word": false,
859
+ "special": true
860
+ },
861
+ "107": {
862
+ "content": "<end_of_turn>",
863
+ "lstrip": false,
864
+ "normalized": false,
865
+ "rstrip": false,
866
+ "single_word": false,
867
+ "special": true
868
+ },
869
+ "108": {
870
+ "content": "\n",
871
+ "lstrip": false,
872
+ "normalized": false,
873
+ "rstrip": false,
874
+ "single_word": false,
875
+ "special": false
876
+ },
877
+ "109": {
878
+ "content": "\n\n",
879
+ "lstrip": false,
880
+ "normalized": false,
881
+ "rstrip": false,
882
+ "single_word": false,
883
+ "special": false
884
+ },
885
+ "110": {
886
+ "content": "\n\n\n",
887
+ "lstrip": false,
888
+ "normalized": false,
889
+ "rstrip": false,
890
+ "single_word": false,
891
+ "special": false
892
+ },
893
+ "111": {
894
+ "content": "\n\n\n\n",
895
+ "lstrip": false,
896
+ "normalized": false,
897
+ "rstrip": false,
898
+ "single_word": false,
899
+ "special": false
900
+ },
901
+ "112": {
902
+ "content": "\n\n\n\n\n",
903
+ "lstrip": false,
904
+ "normalized": false,
905
+ "rstrip": false,
906
+ "single_word": false,
907
+ "special": false
908
+ },
909
+ "113": {
910
+ "content": "\n\n\n\n\n\n",
911
+ "lstrip": false,
912
+ "normalized": false,
913
+ "rstrip": false,
914
+ "single_word": false,
915
+ "special": false
916
+ },
917
+ "114": {
918
+ "content": "\n\n\n\n\n\n\n",
919
+ "lstrip": false,
920
+ "normalized": false,
921
+ "rstrip": false,
922
+ "single_word": false,
923
+ "special": false
924
+ },
925
+ "115": {
926
+ "content": "\n\n\n\n\n\n\n\n",
927
+ "lstrip": false,
928
+ "normalized": false,
929
+ "rstrip": false,
930
+ "single_word": false,
931
+ "special": false
932
+ },
933
+ "116": {
934
+ "content": "\n\n\n\n\n\n\n\n\n",
935
+ "lstrip": false,
936
+ "normalized": false,
937
+ "rstrip": false,
938
+ "single_word": false,
939
+ "special": false
940
+ },
941
+ "117": {
942
+ "content": "\n\n\n\n\n\n\n\n\n\n",
943
+ "lstrip": false,
944
+ "normalized": false,
945
+ "rstrip": false,
946
+ "single_word": false,
947
+ "special": false
948
+ },
949
+ "118": {
950
+ "content": "\n\n\n\n\n\n\n\n\n\n\n",
951
+ "lstrip": false,
952
+ "normalized": false,
953
+ "rstrip": false,
954
+ "single_word": false,
955
+ "special": false
956
+ },
957
+ "119": {
958
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n",
959
+ "lstrip": false,
960
+ "normalized": false,
961
+ "rstrip": false,
962
+ "single_word": false,
963
+ "special": false
964
+ },
965
+ "120": {
966
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n",
967
+ "lstrip": false,
968
+ "normalized": false,
969
+ "rstrip": false,
970
+ "single_word": false,
971
+ "special": false
972
+ },
973
+ "121": {
974
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
975
+ "lstrip": false,
976
+ "normalized": false,
977
+ "rstrip": false,
978
+ "single_word": false,
979
+ "special": false
980
+ },
981
+ "122": {
982
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
983
+ "lstrip": false,
984
+ "normalized": false,
985
+ "rstrip": false,
986
+ "single_word": false,
987
+ "special": false
988
+ },
989
+ "123": {
990
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
991
+ "lstrip": false,
992
+ "normalized": false,
993
+ "rstrip": false,
994
+ "single_word": false,
995
+ "special": false
996
+ },
997
+ "124": {
998
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
999
+ "lstrip": false,
1000
+ "normalized": false,
1001
+ "rstrip": false,
1002
+ "single_word": false,
1003
+ "special": false
1004
+ },
1005
+ "125": {
1006
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1007
+ "lstrip": false,
1008
+ "normalized": false,
1009
+ "rstrip": false,
1010
+ "single_word": false,
1011
+ "special": false
1012
+ },
1013
+ "126": {
1014
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1015
+ "lstrip": false,
1016
+ "normalized": false,
1017
+ "rstrip": false,
1018
+ "single_word": false,
1019
+ "special": false
1020
+ },
1021
+ "127": {
1022
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1023
+ "lstrip": false,
1024
+ "normalized": false,
1025
+ "rstrip": false,
1026
+ "single_word": false,
1027
+ "special": false
1028
+ },
1029
+ "128": {
1030
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1031
+ "lstrip": false,
1032
+ "normalized": false,
1033
+ "rstrip": false,
1034
+ "single_word": false,
1035
+ "special": false
1036
+ },
1037
+ "129": {
1038
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1039
+ "lstrip": false,
1040
+ "normalized": false,
1041
+ "rstrip": false,
1042
+ "single_word": false,
1043
+ "special": false
1044
+ },
1045
+ "130": {
1046
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1047
+ "lstrip": false,
1048
+ "normalized": false,
1049
+ "rstrip": false,
1050
+ "single_word": false,
1051
+ "special": false
1052
+ },
1053
+ "131": {
1054
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1055
+ "lstrip": false,
1056
+ "normalized": false,
1057
+ "rstrip": false,
1058
+ "single_word": false,
1059
+ "special": false
1060
+ },
1061
+ "132": {
1062
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1063
+ "lstrip": false,
1064
+ "normalized": false,
1065
+ "rstrip": false,
1066
+ "single_word": false,
1067
+ "special": false
1068
+ },
1069
+ "133": {
1070
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1071
+ "lstrip": false,
1072
+ "normalized": false,
1073
+ "rstrip": false,
1074
+ "single_word": false,
1075
+ "special": false
1076
+ },
1077
+ "134": {
1078
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1079
+ "lstrip": false,
1080
+ "normalized": false,
1081
+ "rstrip": false,
1082
+ "single_word": false,
1083
+ "special": false
1084
+ },
1085
+ "135": {
1086
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1087
+ "lstrip": false,
1088
+ "normalized": false,
1089
+ "rstrip": false,
1090
+ "single_word": false,
1091
+ "special": false
1092
+ },
1093
+ "136": {
1094
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1095
+ "lstrip": false,
1096
+ "normalized": false,
1097
+ "rstrip": false,
1098
+ "single_word": false,
1099
+ "special": false
1100
+ },
1101
+ "137": {
1102
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1103
+ "lstrip": false,
1104
+ "normalized": false,
1105
+ "rstrip": false,
1106
+ "single_word": false,
1107
+ "special": false
1108
+ },
1109
+ "138": {
1110
+ "content": "\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n\n",
1111
+ "lstrip": false,
1112
+ "normalized": false,
1113
+ "rstrip": false,
1114
+ "single_word": false,
1115
+ "special": false
1116
+ },
1117
+ "139": {
1118
+ "content": "▁▁",
1119
+ "lstrip": false,
1120
+ "normalized": false,
1121
+ "rstrip": false,
1122
+ "single_word": false,
1123
+ "special": false
1124
+ },
1125
+ "140": {
1126
+ "content": "▁▁▁",
1127
+ "lstrip": false,
1128
+ "normalized": false,
1129
+ "rstrip": false,
1130
+ "single_word": false,
1131
+ "special": false
1132
+ },
1133
+ "141": {
1134
+ "content": "▁▁▁▁",
1135
+ "lstrip": false,
1136
+ "normalized": false,
1137
+ "rstrip": false,
1138
+ "single_word": false,
1139
+ "special": false
1140
+ },
1141
+ "142": {
1142
+ "content": "▁▁▁▁▁",
1143
+ "lstrip": false,
1144
+ "normalized": false,
1145
+ "rstrip": false,
1146
+ "single_word": false,
1147
+ "special": false
1148
+ },
1149
+ "143": {
1150
+ "content": "▁▁▁▁▁▁",
1151
+ "lstrip": false,
1152
+ "normalized": false,
1153
+ "rstrip": false,
1154
+ "single_word": false,
1155
+ "special": false
1156
+ },
1157
+ "144": {
1158
+ "content": "▁▁▁▁▁▁▁",
1159
+ "lstrip": false,
1160
+ "normalized": false,
1161
+ "rstrip": false,
1162
+ "single_word": false,
1163
+ "special": false
1164
+ },
1165
+ "145": {
1166
+ "content": "▁▁▁▁▁▁▁▁",
1167
+ "lstrip": false,
1168
+ "normalized": false,
1169
+ "rstrip": false,
1170
+ "single_word": false,
1171
+ "special": false
1172
+ },
1173
+ "146": {
1174
+ "content": "▁▁▁▁▁▁▁▁▁",
1175
+ "lstrip": false,
1176
+ "normalized": false,
1177
+ "rstrip": false,
1178
+ "single_word": false,
1179
+ "special": false
1180
+ },
1181
+ "147": {
1182
+ "content": "▁▁▁▁▁▁▁▁▁▁",
1183
+ "lstrip": false,
1184
+ "normalized": false,
1185
+ "rstrip": false,
1186
+ "single_word": false,
1187
+ "special": false
1188
+ },
1189
+ "148": {
1190
+ "content": "▁▁▁▁▁▁▁▁▁▁▁",
1191
+ "lstrip": false,
1192
+ "normalized": false,
1193
+ "rstrip": false,
1194
+ "single_word": false,
1195
+ "special": false
1196
+ },
1197
+ "149": {
1198
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁",
1199
+ "lstrip": false,
1200
+ "normalized": false,
1201
+ "rstrip": false,
1202
+ "single_word": false,
1203
+ "special": false
1204
+ },
1205
+ "150": {
1206
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁",
1207
+ "lstrip": false,
1208
+ "normalized": false,
1209
+ "rstrip": false,
1210
+ "single_word": false,
1211
+ "special": false
1212
+ },
1213
+ "151": {
1214
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1215
+ "lstrip": false,
1216
+ "normalized": false,
1217
+ "rstrip": false,
1218
+ "single_word": false,
1219
+ "special": false
1220
+ },
1221
+ "152": {
1222
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1223
+ "lstrip": false,
1224
+ "normalized": false,
1225
+ "rstrip": false,
1226
+ "single_word": false,
1227
+ "special": false
1228
+ },
1229
+ "153": {
1230
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1231
+ "lstrip": false,
1232
+ "normalized": false,
1233
+ "rstrip": false,
1234
+ "single_word": false,
1235
+ "special": false
1236
+ },
1237
+ "154": {
1238
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1239
+ "lstrip": false,
1240
+ "normalized": false,
1241
+ "rstrip": false,
1242
+ "single_word": false,
1243
+ "special": false
1244
+ },
1245
+ "155": {
1246
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1247
+ "lstrip": false,
1248
+ "normalized": false,
1249
+ "rstrip": false,
1250
+ "single_word": false,
1251
+ "special": false
1252
+ },
1253
+ "156": {
1254
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1255
+ "lstrip": false,
1256
+ "normalized": false,
1257
+ "rstrip": false,
1258
+ "single_word": false,
1259
+ "special": false
1260
+ },
1261
+ "157": {
1262
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1263
+ "lstrip": false,
1264
+ "normalized": false,
1265
+ "rstrip": false,
1266
+ "single_word": false,
1267
+ "special": false
1268
+ },
1269
+ "158": {
1270
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1271
+ "lstrip": false,
1272
+ "normalized": false,
1273
+ "rstrip": false,
1274
+ "single_word": false,
1275
+ "special": false
1276
+ },
1277
+ "159": {
1278
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1279
+ "lstrip": false,
1280
+ "normalized": false,
1281
+ "rstrip": false,
1282
+ "single_word": false,
1283
+ "special": false
1284
+ },
1285
+ "160": {
1286
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1287
+ "lstrip": false,
1288
+ "normalized": false,
1289
+ "rstrip": false,
1290
+ "single_word": false,
1291
+ "special": false
1292
+ },
1293
+ "161": {
1294
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1295
+ "lstrip": false,
1296
+ "normalized": false,
1297
+ "rstrip": false,
1298
+ "single_word": false,
1299
+ "special": false
1300
+ },
1301
+ "162": {
1302
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1303
+ "lstrip": false,
1304
+ "normalized": false,
1305
+ "rstrip": false,
1306
+ "single_word": false,
1307
+ "special": false
1308
+ },
1309
+ "163": {
1310
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1311
+ "lstrip": false,
1312
+ "normalized": false,
1313
+ "rstrip": false,
1314
+ "single_word": false,
1315
+ "special": false
1316
+ },
1317
+ "164": {
1318
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1319
+ "lstrip": false,
1320
+ "normalized": false,
1321
+ "rstrip": false,
1322
+ "single_word": false,
1323
+ "special": false
1324
+ },
1325
+ "165": {
1326
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1327
+ "lstrip": false,
1328
+ "normalized": false,
1329
+ "rstrip": false,
1330
+ "single_word": false,
1331
+ "special": false
1332
+ },
1333
+ "166": {
1334
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1335
+ "lstrip": false,
1336
+ "normalized": false,
1337
+ "rstrip": false,
1338
+ "single_word": false,
1339
+ "special": false
1340
+ },
1341
+ "167": {
1342
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1343
+ "lstrip": false,
1344
+ "normalized": false,
1345
+ "rstrip": false,
1346
+ "single_word": false,
1347
+ "special": false
1348
+ },
1349
+ "168": {
1350
+ "content": "▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁▁",
1351
+ "lstrip": false,
1352
+ "normalized": false,
1353
+ "rstrip": false,
1354
+ "single_word": false,
1355
+ "special": false
1356
+ },
1357
+ "169": {
1358
+ "content": "<table>",
1359
+ "lstrip": false,
1360
+ "normalized": false,
1361
+ "rstrip": false,
1362
+ "single_word": false,
1363
+ "special": false
1364
+ },
1365
+ "170": {
1366
+ "content": "<caption>",
1367
+ "lstrip": false,
1368
+ "normalized": false,
1369
+ "rstrip": false,
1370
+ "single_word": false,
1371
+ "special": false
1372
+ },
1373
+ "171": {
1374
+ "content": "<thead>",
1375
+ "lstrip": false,
1376
+ "normalized": false,
1377
+ "rstrip": false,
1378
+ "single_word": false,
1379
+ "special": false
1380
+ },
1381
+ "172": {
1382
+ "content": "<tbody>",
1383
+ "lstrip": false,
1384
+ "normalized": false,
1385
+ "rstrip": false,
1386
+ "single_word": false,
1387
+ "special": false
1388
+ },
1389
+ "173": {
1390
+ "content": "<tfoot>",
1391
+ "lstrip": false,
1392
+ "normalized": false,
1393
+ "rstrip": false,
1394
+ "single_word": false,
1395
+ "special": false
1396
+ },
1397
+ "174": {
1398
+ "content": "<tr>",
1399
+ "lstrip": false,
1400
+ "normalized": false,
1401
+ "rstrip": false,
1402
+ "single_word": false,
1403
+ "special": false
1404
+ },
1405
+ "175": {
1406
+ "content": "<th>",
1407
+ "lstrip": false,
1408
+ "normalized": false,
1409
+ "rstrip": false,
1410
+ "single_word": false,
1411
+ "special": false
1412
+ },
1413
+ "176": {
1414
+ "content": "<td>",
1415
+ "lstrip": false,
1416
+ "normalized": false,
1417
+ "rstrip": false,
1418
+ "single_word": false,
1419
+ "special": false
1420
+ },
1421
+ "177": {
1422
+ "content": "</table>",
1423
+ "lstrip": false,
1424
+ "normalized": false,
1425
+ "rstrip": false,
1426
+ "single_word": false,
1427
+ "special": false
1428
+ },
1429
+ "178": {
1430
+ "content": "</caption>",
1431
+ "lstrip": false,
1432
+ "normalized": false,
1433
+ "rstrip": false,
1434
+ "single_word": false,
1435
+ "special": false
1436
+ },
1437
+ "179": {
1438
+ "content": "</thead>",
1439
+ "lstrip": false,
1440
+ "normalized": false,
1441
+ "rstrip": false,
1442
+ "single_word": false,
1443
+ "special": false
1444
+ },
1445
+ "180": {
1446
+ "content": "</tbody>",
1447
+ "lstrip": false,
1448
+ "normalized": false,
1449
+ "rstrip": false,
1450
+ "single_word": false,
1451
+ "special": false
1452
+ },
1453
+ "181": {
1454
+ "content": "</tfoot>",
1455
+ "lstrip": false,
1456
+ "normalized": false,
1457
+ "rstrip": false,
1458
+ "single_word": false,
1459
+ "special": false
1460
+ },
1461
+ "182": {
1462
+ "content": "</tr>",
1463
+ "lstrip": false,
1464
+ "normalized": false,
1465
+ "rstrip": false,
1466
+ "single_word": false,
1467
+ "special": false
1468
+ },
1469
+ "183": {
1470
+ "content": "</th>",
1471
+ "lstrip": false,
1472
+ "normalized": false,
1473
+ "rstrip": false,
1474
+ "single_word": false,
1475
+ "special": false
1476
+ },
1477
+ "184": {
1478
+ "content": "</td>",
1479
+ "lstrip": false,
1480
+ "normalized": false,
1481
+ "rstrip": false,
1482
+ "single_word": false,
1483
+ "special": false
1484
+ },
1485
+ "185": {
1486
+ "content": "<h1>",
1487
+ "lstrip": false,
1488
+ "normalized": false,
1489
+ "rstrip": false,
1490
+ "single_word": false,
1491
+ "special": false
1492
+ },
1493
+ "186": {
1494
+ "content": "<h2>",
1495
+ "lstrip": false,
1496
+ "normalized": false,
1497
+ "rstrip": false,
1498
+ "single_word": false,
1499
+ "special": false
1500
+ },
1501
+ "187": {
1502
+ "content": "<h3>",
1503
+ "lstrip": false,
1504
+ "normalized": false,
1505
+ "rstrip": false,
1506
+ "single_word": false,
1507
+ "special": false
1508
+ },
1509
+ "188": {
1510
+ "content": "<h4>",
1511
+ "lstrip": false,
1512
+ "normalized": false,
1513
+ "rstrip": false,
1514
+ "single_word": false,
1515
+ "special": false
1516
+ },
1517
+ "189": {
1518
+ "content": "<h5>",
1519
+ "lstrip": false,
1520
+ "normalized": false,
1521
+ "rstrip": false,
1522
+ "single_word": false,
1523
+ "special": false
1524
+ },
1525
+ "190": {
1526
+ "content": "<h6>",
1527
+ "lstrip": false,
1528
+ "normalized": false,
1529
+ "rstrip": false,
1530
+ "single_word": false,
1531
+ "special": false
1532
+ },
1533
+ "191": {
1534
+ "content": "<blockquote>",
1535
+ "lstrip": false,
1536
+ "normalized": false,
1537
+ "rstrip": false,
1538
+ "single_word": false,
1539
+ "special": false
1540
+ },
1541
+ "192": {
1542
+ "content": "</h1>",
1543
+ "lstrip": false,
1544
+ "normalized": false,
1545
+ "rstrip": false,
1546
+ "single_word": false,
1547
+ "special": false
1548
+ },
1549
+ "193": {
1550
+ "content": "</h2>",
1551
+ "lstrip": false,
1552
+ "normalized": false,
1553
+ "rstrip": false,
1554
+ "single_word": false,
1555
+ "special": false
1556
+ },
1557
+ "194": {
1558
+ "content": "</h3>",
1559
+ "lstrip": false,
1560
+ "normalized": false,
1561
+ "rstrip": false,
1562
+ "single_word": false,
1563
+ "special": false
1564
+ },
1565
+ "195": {
1566
+ "content": "</h4>",
1567
+ "lstrip": false,
1568
+ "normalized": false,
1569
+ "rstrip": false,
1570
+ "single_word": false,
1571
+ "special": false
1572
+ },
1573
+ "196": {
1574
+ "content": "</h5>",
1575
+ "lstrip": false,
1576
+ "normalized": false,
1577
+ "rstrip": false,
1578
+ "single_word": false,
1579
+ "special": false
1580
+ },
1581
+ "197": {
1582
+ "content": "</h6>",
1583
+ "lstrip": false,
1584
+ "normalized": false,
1585
+ "rstrip": false,
1586
+ "single_word": false,
1587
+ "special": false
1588
+ },
1589
+ "198": {
1590
+ "content": "</blockquote>",
1591
+ "lstrip": false,
1592
+ "normalized": false,
1593
+ "rstrip": false,
1594
+ "single_word": false,
1595
+ "special": false
1596
+ },
1597
+ "199": {
1598
+ "content": "<strong>",
1599
+ "lstrip": false,
1600
+ "normalized": false,
1601
+ "rstrip": false,
1602
+ "single_word": false,
1603
+ "special": false
1604
+ },
1605
+ "200": {
1606
+ "content": "<em>",
1607
+ "lstrip": false,
1608
+ "normalized": false,
1609
+ "rstrip": false,
1610
+ "single_word": false,
1611
+ "special": false
1612
+ },
1613
+ "201": {
1614
+ "content": "<b>",
1615
+ "lstrip": false,
1616
+ "normalized": false,
1617
+ "rstrip": false,
1618
+ "single_word": false,
1619
+ "special": false
1620
+ },
1621
+ "202": {
1622
+ "content": "<i>",
1623
+ "lstrip": false,
1624
+ "normalized": false,
1625
+ "rstrip": false,
1626
+ "single_word": false,
1627
+ "special": false
1628
+ },
1629
+ "203": {
1630
+ "content": "<u>",
1631
+ "lstrip": false,
1632
+ "normalized": false,
1633
+ "rstrip": false,
1634
+ "single_word": false,
1635
+ "special": false
1636
+ },
1637
+ "204": {
1638
+ "content": "<s>",
1639
+ "lstrip": false,
1640
+ "normalized": false,
1641
+ "rstrip": false,
1642
+ "single_word": false,
1643
+ "special": false
1644
+ },
1645
+ "205": {
1646
+ "content": "<sub>",
1647
+ "lstrip": false,
1648
+ "normalized": false,
1649
+ "rstrip": false,
1650
+ "single_word": false,
1651
+ "special": false
1652
+ },
1653
+ "206": {
1654
+ "content": "<sup>",
1655
+ "lstrip": false,
1656
+ "normalized": false,
1657
+ "rstrip": false,
1658
+ "single_word": false,
1659
+ "special": false
1660
+ },
1661
+ "207": {
1662
+ "content": "<code>",
1663
+ "lstrip": false,
1664
+ "normalized": false,
1665
+ "rstrip": false,
1666
+ "single_word": false,
1667
+ "special": false
1668
+ },
1669
+ "208": {
1670
+ "content": "</strong>",
1671
+ "lstrip": false,
1672
+ "normalized": false,
1673
+ "rstrip": false,
1674
+ "single_word": false,
1675
+ "special": false
1676
+ },
1677
+ "209": {
1678
+ "content": "</em>",
1679
+ "lstrip": false,
1680
+ "normalized": false,
1681
+ "rstrip": false,
1682
+ "single_word": false,
1683
+ "special": false
1684
+ },
1685
+ "210": {
1686
+ "content": "</b>",
1687
+ "lstrip": false,
1688
+ "normalized": false,
1689
+ "rstrip": false,
1690
+ "single_word": false,
1691
+ "special": false
1692
+ },
1693
+ "211": {
1694
+ "content": "</i>",
1695
+ "lstrip": false,
1696
+ "normalized": false,
1697
+ "rstrip": false,
1698
+ "single_word": false,
1699
+ "special": false
1700
+ },
1701
+ "212": {
1702
+ "content": "</u>",
1703
+ "lstrip": false,
1704
+ "normalized": false,
1705
+ "rstrip": false,
1706
+ "single_word": false,
1707
+ "special": false
1708
+ },
1709
+ "213": {
1710
+ "content": "</s>",
1711
+ "lstrip": false,
1712
+ "normalized": false,
1713
+ "rstrip": false,
1714
+ "single_word": false,
1715
+ "special": false
1716
+ },
1717
+ "214": {
1718
+ "content": "</sub>",
1719
+ "lstrip": false,
1720
+ "normalized": false,
1721
+ "rstrip": false,
1722
+ "single_word": false,
1723
+ "special": false
1724
+ },
1725
+ "215": {
1726
+ "content": "</sup>",
1727
+ "lstrip": false,
1728
+ "normalized": false,
1729
+ "rstrip": false,
1730
+ "single_word": false,
1731
+ "special": false
1732
+ },
1733
+ "216": {
1734
+ "content": "</code>",
1735
+ "lstrip": false,
1736
+ "normalized": false,
1737
+ "rstrip": false,
1738
+ "single_word": false,
1739
+ "special": false
1740
+ },
1741
+ "255968": {
1742
+ "content": "[toxicity=0]",
1743
+ "lstrip": false,
1744
+ "normalized": false,
1745
+ "rstrip": false,
1746
+ "single_word": false,
1747
+ "special": false
1748
+ },
1749
+ "255969": {
1750
+ "content": "\t\t",
1751
+ "lstrip": false,
1752
+ "normalized": false,
1753
+ "rstrip": false,
1754
+ "single_word": false,
1755
+ "special": false
1756
+ },
1757
+ "255970": {
1758
+ "content": "\t\t\t",
1759
+ "lstrip": false,
1760
+ "normalized": false,
1761
+ "rstrip": false,
1762
+ "single_word": false,
1763
+ "special": false
1764
+ },
1765
+ "255971": {
1766
+ "content": "\t\t\t\t",
1767
+ "lstrip": false,
1768
+ "normalized": false,
1769
+ "rstrip": false,
1770
+ "single_word": false,
1771
+ "special": false
1772
+ },
1773
+ "255972": {
1774
+ "content": "\t\t\t\t\t",
1775
+ "lstrip": false,
1776
+ "normalized": false,
1777
+ "rstrip": false,
1778
+ "single_word": false,
1779
+ "special": false
1780
+ },
1781
+ "255973": {
1782
+ "content": "\t\t\t\t\t\t",
1783
+ "lstrip": false,
1784
+ "normalized": false,
1785
+ "rstrip": false,
1786
+ "single_word": false,
1787
+ "special": false
1788
+ },
1789
+ "255974": {
1790
+ "content": "\t\t\t\t\t\t\t",
1791
+ "lstrip": false,
1792
+ "normalized": false,
1793
+ "rstrip": false,
1794
+ "single_word": false,
1795
+ "special": false
1796
+ },
1797
+ "255975": {
1798
+ "content": "\t\t\t\t\t\t\t\t",
1799
+ "lstrip": false,
1800
+ "normalized": false,
1801
+ "rstrip": false,
1802
+ "single_word": false,
1803
+ "special": false
1804
+ },
1805
+ "255976": {
1806
+ "content": "\t\t\t\t\t\t\t\t\t",
1807
+ "lstrip": false,
1808
+ "normalized": false,
1809
+ "rstrip": false,
1810
+ "single_word": false,
1811
+ "special": false
1812
+ },
1813
+ "255977": {
1814
+ "content": "\t\t\t\t\t\t\t\t\t\t",
1815
+ "lstrip": false,
1816
+ "normalized": false,
1817
+ "rstrip": false,
1818
+ "single_word": false,
1819
+ "special": false
1820
+ },
1821
+ "255978": {
1822
+ "content": "\t\t\t\t\t\t\t\t\t\t\t",
1823
+ "lstrip": false,
1824
+ "normalized": false,
1825
+ "rstrip": false,
1826
+ "single_word": false,
1827
+ "special": false
1828
+ },
1829
+ "255979": {
1830
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t",
1831
+ "lstrip": false,
1832
+ "normalized": false,
1833
+ "rstrip": false,
1834
+ "single_word": false,
1835
+ "special": false
1836
+ },
1837
+ "255980": {
1838
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t",
1839
+ "lstrip": false,
1840
+ "normalized": false,
1841
+ "rstrip": false,
1842
+ "single_word": false,
1843
+ "special": false
1844
+ },
1845
+ "255981": {
1846
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1847
+ "lstrip": false,
1848
+ "normalized": false,
1849
+ "rstrip": false,
1850
+ "single_word": false,
1851
+ "special": false
1852
+ },
1853
+ "255982": {
1854
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1855
+ "lstrip": false,
1856
+ "normalized": false,
1857
+ "rstrip": false,
1858
+ "single_word": false,
1859
+ "special": false
1860
+ },
1861
+ "255983": {
1862
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1863
+ "lstrip": false,
1864
+ "normalized": false,
1865
+ "rstrip": false,
1866
+ "single_word": false,
1867
+ "special": false
1868
+ },
1869
+ "255984": {
1870
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1871
+ "lstrip": false,
1872
+ "normalized": false,
1873
+ "rstrip": false,
1874
+ "single_word": false,
1875
+ "special": false
1876
+ },
1877
+ "255985": {
1878
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1879
+ "lstrip": false,
1880
+ "normalized": false,
1881
+ "rstrip": false,
1882
+ "single_word": false,
1883
+ "special": false
1884
+ },
1885
+ "255986": {
1886
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1887
+ "lstrip": false,
1888
+ "normalized": false,
1889
+ "rstrip": false,
1890
+ "single_word": false,
1891
+ "special": false
1892
+ },
1893
+ "255987": {
1894
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1895
+ "lstrip": false,
1896
+ "normalized": false,
1897
+ "rstrip": false,
1898
+ "single_word": false,
1899
+ "special": false
1900
+ },
1901
+ "255988": {
1902
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1903
+ "lstrip": false,
1904
+ "normalized": false,
1905
+ "rstrip": false,
1906
+ "single_word": false,
1907
+ "special": false
1908
+ },
1909
+ "255989": {
1910
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1911
+ "lstrip": false,
1912
+ "normalized": false,
1913
+ "rstrip": false,
1914
+ "single_word": false,
1915
+ "special": false
1916
+ },
1917
+ "255990": {
1918
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1919
+ "lstrip": false,
1920
+ "normalized": false,
1921
+ "rstrip": false,
1922
+ "single_word": false,
1923
+ "special": false
1924
+ },
1925
+ "255991": {
1926
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1927
+ "lstrip": false,
1928
+ "normalized": false,
1929
+ "rstrip": false,
1930
+ "single_word": false,
1931
+ "special": false
1932
+ },
1933
+ "255992": {
1934
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1935
+ "lstrip": false,
1936
+ "normalized": false,
1937
+ "rstrip": false,
1938
+ "single_word": false,
1939
+ "special": false
1940
+ },
1941
+ "255993": {
1942
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1943
+ "lstrip": false,
1944
+ "normalized": false,
1945
+ "rstrip": false,
1946
+ "single_word": false,
1947
+ "special": false
1948
+ },
1949
+ "255994": {
1950
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1951
+ "lstrip": false,
1952
+ "normalized": false,
1953
+ "rstrip": false,
1954
+ "single_word": false,
1955
+ "special": false
1956
+ },
1957
+ "255995": {
1958
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1959
+ "lstrip": false,
1960
+ "normalized": false,
1961
+ "rstrip": false,
1962
+ "single_word": false,
1963
+ "special": false
1964
+ },
1965
+ "255996": {
1966
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1967
+ "lstrip": false,
1968
+ "normalized": false,
1969
+ "rstrip": false,
1970
+ "single_word": false,
1971
+ "special": false
1972
+ },
1973
+ "255997": {
1974
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1975
+ "lstrip": false,
1976
+ "normalized": false,
1977
+ "rstrip": false,
1978
+ "single_word": false,
1979
+ "special": false
1980
+ },
1981
+ "255998": {
1982
+ "content": "\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t",
1983
+ "lstrip": false,
1984
+ "normalized": false,
1985
+ "rstrip": false,
1986
+ "single_word": false,
1987
+ "special": false
1988
+ },
1989
+ "255999": {
1990
+ "content": "<unused99>",
1991
+ "lstrip": false,
1992
+ "normalized": false,
1993
+ "rstrip": false,
1994
+ "single_word": false,
1995
+ "special": false
1996
+ }
1997
+ },
1998
+ "additional_special_tokens": [
1999
+ "<start_of_turn>",
2000
+ "<end_of_turn>"
2001
+ ],
2002
+ "bos_token": "<bos>",
2003
+ "chat_template": "{{ bos_token }}{% for message in messages %}{% if (message['role'] == 'assistant') %}{% set role = 'model' %}{% else %}{% set role = message['role'] %}{% endif %}{{ '<start_of_turn>' + role + '\n' + message['content'] | trim + '<end_of_turn>\n' }}{% endfor %}{% if add_generation_prompt %}{{'<start_of_turn>model\n'}}{% endif %}",
2004
+ "clean_up_tokenization_spaces": false,
2005
+ "eos_token": "<end_of_turn>",
2006
+ "extra_special_tokens": {},
2007
+ "model_max_length": 1000000000000000019884624838656,
2008
+ "pad_token": "<pad>",
2009
+ "padding_side": "right",
2010
+ "sp_model_kwargs": {},
2011
+ "spaces_between_special_tokens": false,
2012
+ "split_special_tokens": false,
2013
+ "tokenizer_class": "GemmaTokenizerFast",
2014
+ "unk_token": "<unk>",
2015
+ "use_default_system_prompt": false
2016
+ }
dataset_parts/soru_cevap_dataset/part_01.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/soru_cevap_dataset800k/part_64.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Aidin Salih Gercek Tıp Kitabı.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Albert Camus - Yabancı_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Albert Champdor - Ölüler Kitabı_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Aldous Huxley - Cesur Yeni Dünya_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Aleksandr Ostrovski - Bu Hesapta Yoktu_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Aleksandr Puşkin - Büyük Petro'nun Arabı_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Aleksandr Puşkin - Dubrovski_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Aleksandr Puşkin - Küçük Tragedyalar_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Aleksandr Puşkin - Yüzbaşının Kızı (2)_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Aleksandr Puşkin - Yüzbaşının Kızı_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Alev Alatlı - Schrödinger'in Kedisi (Kabus)_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Alexandre Dumas - Monte Cristo Kontu (2)_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Alexandre Dumas - Monte Cristo Kontu_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Alexandre Dumas - Üç Silahşörler_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Alfred Bester - Kaplan! Kaplan!_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Algan Sezgintüredi - Katilin Uşağı_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Ali Karadas - Direnişi Nasıl Dokuduk_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Ali Şeriati - Dine Karsi Din_hocr_searchtext.txt ADDED
@@ -0,0 +1,345 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+
2
+ DİNE KARŞI DİN
3
+ ALİ ŞERİATİ
4
+ BİRİNCİ BÖLÜM
5
+ KÜFR
6
+ ŞİRK
7
+ PUTPERESTLİK
8
+ ŞİRK DİNİNİN ÖZELLİKLERİ
9
+ TEVHİD
10
+ SÂMİRİ
11
+ BEL'AM-İ BA'ÜR
12
+ FERİSİLER
13
+ İNKILABİ DİN NE DEMEKTİR? MUHAFAZAKÂR DİN NE DEMEKTİR? EMR-İ Bİ'L-MA'RÜF VE NEHY-İ ANİ'L-MÜNKER ŞİRK DİNİNİN TARİHTEKİ SEYİR BİÇİMİ ŞİRK DİNİNİN KURUCU VE KORUCULARI ŞİRK DİNİNİN TEMELİ
14
+ UYUŞTURUCU DİN
15
+ MÜRCİE VE SORUMSUZLUK
16
+ ŞİRK DİNİNİN HAREKET BİÇİMİ
17
+ ALLAH VE İNSAN
18
+ TAĞUTA TAPANLAR
19
+ İKİNCİ BÖLÜM
20
+ KÜFÜR DİNİ VE İSLÂM DİNİ TARİHE KÜFÜR DİNİ EGEMENDİR MAL HALKINDIR
21
+ ALLAH'IN AİLESİ
22
+ SINIFSAL VE IRKİ İHTİLAFLAR YARATICILIK VE RUBUBİYET İDEAL TOPLUM MODELİ: MEDİNE ANTİK İRAN'DA DİN
23
+ SINIFLI YAPININ KORUYUCULARI OLAN ZERDÜŞTİ DİN ADAMLARI
24
+ TEVHİD DİNİNİN PEYGAMBERLERİ ŞİRK DİNİ
25
+ AYDINLARIN YANILGISI
26
+ ÂLİMLERİN VE AYDINLARIN GÖREVİ BİRİNCİ BÖLÜM
27
+ İlan edildiği gibi konuşmamın bu akşamki ve yarın akşamki konusu, “dine karşı din”dir.
28
+ Şimdiye kadar dinin karşısında “küfrün bulunduğunu ve tarih boyunca savaşın din ile dinsizlik arasında gerçekleştiğini düşünen bizler için bu başlık ve ifadede bir müphemlik olması doğaldır.
29
+ Dolayısıyla “dine karşı din” ifadesi tuhaf, şaşırtıcı ve kabul edilemez bir ifade olarak görülebilir.
30
+ Oysa ben, son zamanlarda anladım ki -şimdiki kadar açık olmasa da, çok zamandır böyle bir şey hissediyordum- tarih boyunca din, din ile savaşım vermiş ve düşündüğümüz gibi hiçbir zaman din, dinsizlik ile savaşmamıştır.
31
+ Buradaki 'tarih' ifadesinden kastım, genel olarak kabul gören, medeniyetin ve yazının ortaya çıkışını değil; insan türünün yeryüzündeki toplumsal yaşamının başlamasını esas alan tarihtir. Zira yazının ortaya çıkışı 6 bin yıllık bir geçmişe sahipken, benim esas aldığım tarih, 30, 40 hatta 50 bin yıllık bir geçmişe sahiptir. Bu süre, arkeolojik, tarihi, jeolojik ve mitolojik araştırmalara göre farklılıklar arz etmektedir. Söz konusu bilimler sayesinde, ilk insanların yaşadıkları toplumsal değişim süreçleri, onların yaşam biçimleri ve inançları hakkında az da olsa bilgimiz vardır. Efsaneler ve masallardan ibaret olan ilk zamanlarda olsun, tarihin ortaya çıkması ile birlikte daha kesin bilgilerin bulunduğu son zamanlarda olsun, bütün bu dönemlerde hiçbir istisna olmaksızın din, dine karşı çıkmıştır. Neden? Çünkü tarih, dinin mevcut olmadığı bir dönemden söz etmediği gibi, dinsiz bir toplumun varlığına dair bir bilgiye de yer vermemektedir. Hiçbir millette, hiçbir dönemde, toplumsal değişimlerin hiçbir aşamasında ve hiçbir yerde dinsiz bir insan olmamıştır.
32
+ Uygarlığın, düşüncenin ve felsefenin son dönemlerde belli bir noktaya gelmesi ile birlikte, Allah'ı ve yeniden dirilmeyi kabul etmeyen kimselerle zaman zaman karşılaşıyoruz.
33
+ Ancak tarin boyunca bu kimseler, bir toplumsal tabaka, bir grup veya bir topluluk haline gelememişlerdir. Alexis Carrel'in söylediği gibi: “Tarihteki bütün toplumlarda, dini bir yapı her zaman var olagelmiştir.”
34
+ Tanrı, peygamber ve kutsal kitap gibi dini unsurlar, bütün toplumların sadece maneviyatının değil, şehirlerinin maddi yapılanmasının da ruhu, özü ve merkezi noktası olmuştur.
35
+ Ortaçağ boyunca ve millattan önceden beri Doğu'da ve Batı'da bütün şehirler, ya kabile mensuplarının toplumsal konumlarına göre ya da herhangi bir toplumsal sınıf esas alınmadan şekillenmiştir. Hangi şehir türünde olursa olsun, Doğu'da ve Batı'da bütün medeniyetlerdeki şehirlerde ortak nokta, kendilerine bir kimlik kazandıran sembollerinden dolayı sembolik şehirler olmalarıdır. Büyük şehirlerin kimliği olan bu semboller, mabetlerdir; ancak bu gün bu yapı gözden kaçmaktadır. Mesela Tahran, sembolik bir şehir değildir; çünkü bu şehir, bir merkez, dini olan ya da olmayan herhangi bir yapı etrafında teşekkül etmemiştir. Öyleyse bu şehrin bir merkezi ve bir kalbi yoktur. Oysa Meşhed'i bütünüyle gösteren bir kuşbakışı resmine bakıldığında, onun, sembolik bir şehir olduğu görülür. Zira orada bütün binalar, şehrin kalbi olan bir merkez, bir ışık etrafında toplanmıştır.
36
+ Bu şehirler, neden semboliktirler? Çünkü hiçbir medeniyet, millet ve şehir, dini bir amaç olmadan vücuda gelmemiştir. Kum Tarihi, Yezd Tarihi, Belh'in Özellikleri, Buhara Tarihi ve Nişabur Tarihi gibi, şehirler hakkında yazılmış olan bütün kitaplar, dini bir hikâye ile başlamaktadır.
37
+ Çünkü insanlar, dini ve manevi bir sebep ve faktör olmadan bu büyük şehirlerin meydana gelebileceğini düşünemiyorlar. Bu şehirlerde mutlaka, ya bir peygamber medfundur, ya dini bir mucize gerçekleşmiştir veya dini bir şahsiyetin türbesi
38
+ bulunmaktadır. Kısacası her yerin dini bir izahı vardır. Bu gösteriyor ki, sınıfsal toplumlar, kabile toplumları, Bizans gibi büyük imparatorluklar, Atina gibi şehir toplumları, Araplar gibi kabile toplumları, gelişmiş toplumlar ve geri kalmış toplumlar, kısacası her ne şekilde olursa olsun bütün kadim toplumlar, dini bir temel üzerine kurulmuşlardır ve kadim insan, her dönemde dindar insan olmuştur. Bundan dolayı, bugün anladığımız gibi "küfr" kelimesi, doğaüstü bir kudrete, ahirete, gayba ve evrende bir veya birden çok tanrıya inanmamak anlamında değildir. Çünkü bütün insanlar, esaslara inanma konusunda müttefiktirler.
39
+ Bugün "küfr" kelimesine verdiğimiz 'dinliliğin karşıtı olmak” ve 'dinsizlik” anlamı, oldukça yeni bir anlamdır. İnsanın, tanrıya, aşkın kudrete ve öte dünyaya inanmaması olan bu anlam, son iki üç asırda Doğu'ya taşınmış olan Batı düşüncesinin bir ürünüdür. Oysa İslâm'da, kadim metinlerde, hiçbir tarih kitabında ve hiçbir dinde "küfr" kelimesi dinsizlik anlamında kullanılmamaktadır. Zira dinsizlik denilen durum hiçbir zaman var olmamıştır.
40
+ Küfür, kendi dışındaki dinleri, küfür hali olarak gören bir din olarak ortaya çıkmıştır. Öyleyse küfür, dinsizlik değil, dinli olmak demektir. Nitekim tarih boyunca Doğuda ya da Batıda, her nerede ve her ne şekilde olursa olsun bir peygamber zuhur ettiğinde veya dini bir inkılâp gerçekleştiğinde şu durumlar söz konusu olmuştur:
41
+ 1-Yeni din, mevcut bir dine karşı olarak ortaya çıkmıştır.
42
+ 2-Yeni dine ilk karşı çıkan ve ona karşı mücadele başlatan, mevcut din olmuştur.
43
+ Burada, son derece önemli bir konu ile karşı karşıya gelmiş bulunmaktayız. Bu konunun açıklığa kavuşturulması, aynı zamanda, günümüz aydınlarının din hakkındaki büyük bir
44
+ yargısının bilimsel ve tarihi bir izahı olacaktır. Aydınların dine dair yargısı şudur: 'Din, uygarlığa, ilerlemeye, insana ve özgürlüğe karşıdır; ya da en azından bu konulara ilgisizdir'. Bu yargı, kin, düşmanlık ve suizandan kaynaklanan bir sövgü ve bir yanılsama değil; insan yaşamındaki tecrübe ve olgular üzerine bina edilmiş olan tarihsel ve toplumsal bir gerçektir.
45
+ Peki, neden bu yargı doğru değildir? Çünkü din mensubu olarak bizler ve diğer insanlar, tarih boyunca pek çok sayıda ve şekilde ortaya çıkan dinlerin, özde iki dinden ibaret olduğunu ve bunların, birbirleriyle mücadele ve çatışma halinde bulunduklarını bilmiyoruz. Bu iki din, sadece birbirinden ayrı olmakla kalmamış; dediğim gibi, aynı zamanda, aralarında fikri ve dini mücadeleler ve savaşlar olmuştur. Fakat bu mücadeleler ve çatışmalar, bizim düşündüğümüz sebeplerden dolayı olmamıştır. Zira biz, dinle ilgili genel bir yargı edinir ve bu yargıya göre dinimize bir yer belirleriz.
46
+ Halbuki bu, yanlış bir yöntemdir.
47
+ Aynı şekilde, son iki üç asırdaki, özellikle 19. asır Avrupa'sındaki din karşıtları da benzer bir yanlışa düşerek iki dini birbirinden ayıramamışlardır. Hâlbuki bu iki din, birbirine benzemediği gibi, temelde birbirine zıt ve muhalif olup tarih boyunca birbiriyle savaşmış, halen savaşıyor ve gelecekte de savaşacaklardır.
48
+ Din hakkındaki bu genel yargı, esasında iki dinden sadece biri için geçerli olup doğru ve tarihi gerçeklere de uygun bir yargıdır. Fakat din mensupları olarak bizler bilmediğimiz gibi, dine karşı olanlar da diğer dini bilmiyorlar. İki dinden biri için söz konusu olan bu yargı, geçerli ve doğru bir yargıdır; yanlış olan, bu yargının genelleştirilip diğer dine de teşmil edilmesidir. İşte esas yanılgı, bu noktadadır.
49
+ Söylediğim gibi bu iki din, o kadar birbirinden farklıdır ki, biri için geçerli olan bir özellik, diğeri için kesinlikle geçerli değildir.
50
+ Hepimizin bildiği bu kavramları, önceden zihinlerimizde var olan anlamlara göre değil, benim kullandığım genel anlamlara göre anlamlandırıp değerlendirmenizi rica ediyorum. İlk olarak, bahsi geçen iki dinin birbirine karıştırılmasına neden olan küfr, şirk ve putperestlik kavramları üzerinde durmak istiyorum. Zira çokça kullandığımız bu kavramlarda bir kapalılık söz konusudur.
51
+ KÜFR
52
+ Küfr, bir şeyin üstünü örtmek demektir. Nitekim Arapça'da, çiftçinin, ektiği tohumun üstünü toprakla örtmesi işlemine küfr denir. Aynı şekilde, insanın kalbinde var olan bir dini hakikatin üstünü çeşitli sebeplerle, cehalet, garaz ve çıkarcılıktan bir örtü kaplar ki, bu hale küfr denir. Buna göre küfr, dinin yok edilmesi ve dinsizlik demek değil, o dini hakikatin yerine başka bir dinin ikame edilmesi demektir.
53
+ ŞİRK
54
+ Şirk, tanrısızlık demek değildir; zira müşriklerin bizden daha çok tanrıları vardır. Müşrik, bir tanrıya inanmayan ve ona ibadet etmeyen kişi değildir. Bildiğimiz gibi İsa, Musa ve İbrahim peygamberlerin karşısında tanrısızlar değil, müşrikler vardı. Peki, müşrikler kimlerdir? Müşrikler, tanrıya inanmayanlar değil, birden çok tanrıya inanan ve tapan kimselerdir. Öyleyse onları, dini inançları ve duyarlılıkları olmayan kimseler olarak nitelendirmek mümkün değildir. Zira onların bir değil, pek çok tanrıları vardır ve onlar, tapındıkları bu tanrılarının, kendilerinin ve evrenin yazgısı üzerinde etkili olduklarına inanırlar. Zaten biz Allah'a hangi gözle bakıyorsak onlar da tanrılarına o gözle bakarlar.
55
+ Öyleyse müşrik, duygu bakımından dindar bir bireydir; fakat bağlandığı din yanlış
56
+ bir dindir. Yanlış bir dine mensup olmak, dinsiz olmaktan farklı bir durumdur. Demek oluyor ki şirk bir dindir; hatta insanlığın tanıdığı en eski din şekillerinden biridir.
57
+ PUTPERESTLİK
58
+ Putperestlik, şirkin anlamdaşı değil, onun çeşitlerinden biridir. Şirk, insanın, tarih boyunca gördüğü genel bir din iken putperestlik, tarihin bir döneminde ortaya çıkmış olan şirk şekillerinden biridir.
59
+ Putperestlik, bir heykele ya da eşyaya kutsallık atfedilmesi demektir. Putperestler, kutsadıkları heykel ve eşyanın, tanrının kendisi, tanrının bir benzeri veya insanla tanrı arasındaki bir aracı olduğuna inanırlar. Onlara göre bu tanrılar, yaşam ve evren üzerinde bir biçimde etki sahibidirler.
60
+ Bütün türleri ile putperestlik, şirk çeşitlerinden biridir.
61
+ Kur'an'da putperestler eleştirilirken ya da onlardan söz edilirken, daha genel bir ifade kullanılmaktadır. Neden? Tâ ki, şimdi zihinlerimizde var olan düşünce vücuda gelmesin; İslâm'ın, her tür putperestliğe bir şekilde karşı çıktığını düşünmeyelim; geçmiş bütün tevhidi hareketlerin devamı olan İslâm'ın, bütün çeşitleri ile şirke hücum ettiğini ve ona temelden karşı olduğunu anlayalım diye. Oysa biz, şirk dininin, “Siz kendi yonttuğunuz şeylere mi tapıyorsunuz?” (Saffat, 95) ayetinde geçtiği gibi insanların, kendi elleri ile yonttukları heykellere tapınmak anlamına gelen putperestlikten ibaret olduğunu düşünüyoruz. Acaba biz insanlar, tarih boyunca sadece taşlardan ve ağaçlardan yaptığımız putlara mı tapındık? Hayır, şirk, görünen ve görünmeyen yüzlerce çeşidi ile insanlık tarihinde genel bir
62
+ din olarak var olagelmiştir. Bu güne kadar insan toplulukları içinde görülmüş olan şirk çeşitlerinden biri de, Afrika ve Arabistan cahiliyesinde ortaya çıkan putperestliktir. “Siz kendi yonttuğunuz şeylere mi tapıyorsunuz?” (11 Ayeti ise, şirk dinindeki tapınma biçimini ifade eden genel bir ilke ve açıklamadır. Şirk dini, tarih boyunca tevhid dini ile birlikte, iki saf halinde adım adım ve omuz omuza var olagelmiştir. Şirk dini, Hz. İbrahim'in ve İslâm'ın zuhuru ile birlikte son bulmamış, bilakis yaşamaya devam etmiş ve hala da devam etmektedir.
63
+ ŞİRK DİNİNİN ÖZELLİKLERİ
64
+ (Bu, dinler tarihinin bir konusudur; fakat ben, İslâm'daki ve kültürümüzdeki kavramları kullanarak konuyu ele almaya çalışacağım.|
65
+ Bu iki saftan birinde, Allah'a ibadet vardır. Allah kâinatı yaratan, tedbir eden, bilgi ve irade sahibi olandır. Bu sıfatlar, bütün İbrahimi dinlerde vardır. O, Hâliktır, bütün kâinatı yaratmıştır; Müdebbirdir, kâinatın yönetimi ve varlığının sürmesi Ona bağlıdır; İrade sahibidir, varlığa hükmetme biçiminde özgürdür, dilediği gibi tasarrufta bulunur; bütün kâinatı murakabe altında tutabilecek sınırsız bilgiye ve görme özelliğine sahiptir. Bununla birlikte Allah, varlığın ve kâinatın gayesi olduğu gibi, âlemin istikametini de belirler. Bu sonsuz kudrete ibadet etmek, bütün insanları, evrendeki tek kudrete ibadet etmeye davet etmek, varlıktaki yegâne gücün bu olduğuna inanmak ve hayat boyunca bu kudrete dayanmak demektir. Zaten bütün İbrahimi dinlerdeki en büyük esas budur ve İbrahim'in (a.s) kendisi de bu esasa yaptığı çağrı ile tanınmıştır.
66
+ TEVHİD
67
+ “Tevhide davet' olarak tarihe geçen bu çağrının şöyle evrensel bir yönü de vardır: İnsanlar, hayvanlar ve cansızlardan oluşan bütün varlığın, tek bir gücün eseri olduğuna; varlıkta tasarruf yetkisinin sadece bu güce âit bulunduğuna; onun dışında hiçbir etki sahibinin mevcut olmadığına ve her şeyin, herkesin, her rengin, her türün ve her özün tek yaratıcının yapımı olduğuna inanmak olan 'ilahi birlik'in mantıki sonucu, insanların birliğidir. Başka bir değişle, tevhidin anlamı şudur: Varlığın tümü, bir tek gücün elindeki bir imparatorluk gibidir. Bütün insanların türedikleri kaynak birdir, insanlar aynı irade ile hidayete erer, aynı hedefe yönelir ve aynı tanrıya sahiptirler. Bütün güçler, işaretler ve değerler, Onun karşısında yok olur. Tevhide inanan biri olarak kâinata baktığımda O'nu bir beden gibi, canlı bir bütün olarak görüyorum. Bu beden, aynı ruh, aynı kudret ve aynı tedbir tarafından yönetildiği için bir bütündür. İnsanlığa baktığımda da, insanların, aynı türden ve aynı değerde olduklarını görüyorum; zira onlar da aynı elden ve aynı tezgâhtan çıkmışlardır. Söz konusu iki dinden (şirk ve tevhid) biri olan tevhid dini, tek tanrıya ibadet etme ve bütün varlığın ve insanlığın tarih içindeki bütün yazgısının, tek kudretin eseri olduğuna inanma temeli üzerine oturmaktadır. Daha önce de söylediğim gibi, tanrının birliği, evrenin birliğini, evrenin birliği ise insanın birliğini gerektirmektedir.
68
+ Diğer yandan, tevhid inancı insana mahsus bir inançtır. Bir güce ibadet ve kutsal bir varlığa (Durkhe im'in ifadesi ile) ya da gayba (Kur'an'ın ifadesi ile) inan ma duygusu, insanda fıtri olarak mevcuttur,
69
+ Bu fıtrat, baş tan beri insanla birlikte var olagelmiştir. İnanma ve ibadet duygusunun, insan fıtratında bulunduğunun göstergesi, bu duygunun devamlı olması ve her zaman ve her yerde yaygın bir şekilde mevcut olmasıdır. Tarihe baktığımızda, tümüyle ibadetten uzak yaşayan hiçbir
70
+ millet yoktur. Yine, yeryüzünü gözden geçirdiğimizde görürüz ki ibadet, her yerde vardır. Işte bu durum, ibadetin fıtri bir olgu olduğunun delilidir.
71
+ İnsan fıtratındaki tapınma arzusu, Tevhid dini ve evrende hakim olan kudretin tanınması vesilesiyle bütün beşeriyetin, halkların, sosyal sınıfların, ailelerin ve fertlerin birliğine dönüşür ve bunun neticesinde de hukuk birliğinin, değer ve onur birliğinin ortaya çıkmasına sebep olur.
72
+ Diğer tarafta ise söz konusu dini duygu, şirk şeklinde tarih sahnesine çıkar. Şirk, her dönemde farklı bir şekilde ortaya çıkar ve tevhid dininin karşısına büyük, dirençli ve saldırgan bir güç ortaya çıkarır.
73
+ Burada, her Tevhid dininin karşısına çıkan bütün güçleri tek tek açıklama imkânı yoksa da, en azından büyük peygamberlerin yaşam hikâyelerine şöyle bir göz atabiliriz. Bu durumda da, şirk dinini inceleme imkânını elde etmiş oluruz. Mesela, Musa (a.s) bağlamında Tevrat'a, Tevrat'a dair kitaplara, Yahudi kültürüne, hatta Kur-an'a ve hadislere baktığımızda görürüz ki, Musa'ya (a.s) karşı ilk isyan bayrağı açan ve herkesten önce ona saldıran Sâmiril(21 ve Bel'am-i Ba'url31 olmuştur.
74
+ SÂMİRİ
75
+ Musa (a.s), yıllarca süren sıkıntı ve mücadelelerden sonra kavmine, bir olan Allah'ı tanıttı ve kavmini, hurafecilik, putperestlik ve buzağıya tapma gibi o dönemin şirk biçimlerinden temizledi.
76
+ Ancak Sâmiri, insanları yeniden buzağıya tapar hale getirmek için, Musa'nın, (a.s) kavminden uzakta kısa bir süre geçirmesini fırsat bilerek bir buzağı heykeli yaptı. Hâlbuki insanların tapınmaları için buzağı heykeli yapan bu kişi,
77
+ tanrıtanımaz ve dinsiz değildi; bilakis, dine inanan hatta insanları dine davet eden biriydi.
78
+ BEVAM-İ BVÜR
79
+ Bel'am-i Bâ'ür, materyalist bir filozof ya da bir natüralist miydi? Hayır, o dönemin en büyük din adamlarından biriydi ve insanlar dini konularda ona danışırlardı. Ancak o, Musa'ya (a.s) karşı çıktı ve kendisine olan dini bağlılıktan dolayı insanlar üzerinde daha etkili olup hak dine tarihteki en büyük zararlardan birini verdi.
80
+ FERİSİLER|41
81
+ Hz. İsa'ya bir bakın! Ölünceye- Hıristiyan inancına göre çarmıha gerilinceye- kadar çektiği acılar, gördüğü baskılar, duyduğu küfürler, kendisi ve annesi hakkında yapılan en bayağı iftira ve ithamların arkasında Ferisiler vardı. Hâlbuki o vakit, dini, müdafaa ve himaye etme iddiasında olanlar da onlardı ve onlar, materyalist, zındık ya da mulhid değillerdi. Zaten o dönemde materyalizm diye bir şey de yoktu. Onlar, Hz. İsa ve havarilerine karşı şirk dininin bayraktarlığını yapan kimselerdi.
82
+ İslâm peygamberine bir bakın! Uhud'da, Tâif”de, Hevâzin'de, Mekke'de, Bedir'de ona kılıç çekenlerden kaç kişi ateist ya da dinsiz idi? Bir kişi bile bulmak mümkün değildir. Hepsi de doğru ya da yanlış, bir şekilde inanıyorlardı; fakat Hz. Muhammed (s) ve ona inananları yok etmek de istiyorlardı. Neden böyle yapıyorlardı? Çünkü -onların iddiasına göre- Muhammed, Hz. İbrahim'in evine olan saygınlığı bitirecek, onların dini inançlarını ve kutsallarını yok edecek, kutsal Mekke şehrini yıkacak ve Allah katında kendilerine şefaat edecek ve aracılık yapacak olan putları kıracaktı.
83
+ Onların bahaneleri buydu. Binaenaleyh, gerek Kureyş müşriklerinin bu tavırları olsun, gerek diğer Arap
84
+ kabilelerinin Hz. Muhammed (s)'e karşı yaptıkları savaşlar olsun, 'dine karşı din” çerçevesinde ortaya çıkan vakalardır.
85
+ Bu anlayış, Peygamber (s)'den sonra da farklı biçimlerde devam etmiştir. Hz. Ali'ye ve İslâm'ın özünü yaşatmak ve devam ettirmek isteyen harekete karşı çıkanlar, kâfir, inançsız ya da dinsiz kimseler miydi? Yoksa Allah mı inkâr edilmişti? Yada Emevilerle Ali taraftarları arasında ve Abbasilerle Ehl-i Beyt arasında yine, dine karşı yeni bir dinin karşı çıkışı mı söz konusuydu?
86
+ İbrahimil5)J ve tevhidi dinin özelliklerinden biri, Allah'a ibadettir. Hz. Âdem'den günümüze kadar insanlık tarihine, değerlerine ve hayatına yön veren ve insanı evrendeki ilahi kanuna teslim olmaya çağıran tek din ve tek inanç hareketleri, tağuta|6) ibadet etmeye karşı çıkmışlardır ve insanlık var olduğu sürece de karşı çıkmaya devam edeceklerdir. Tağuta tapanlar ise insanı, nihai gayesi Allah olan ve İslâm adındakil7Z1 yaradılış yoluna davet eden bu dine karşı çıkmışlardır.
87
+ Bu din, insanlığı Allah'a teslim olmaya ve Onun dışındaki her şeye isyan etmeye çağırırken; şirk dini, evrendeki ilahi kanuna ve her şeyin özü, başı ve sonu olan Allah'a çağırmak anlamında olan İslâm'a isyan etmeye davet eder. Bununla da kalmaz, Allah dışındaki yüzlerce güce teslim olma ve kulluk yapma çağrısında bulunur.
88
+ Şirk, bir taraftan insanı Allah'a kulluk yapmaktan alıkoyarken, diğer taraftan da, pek çok putal81!
89
+ teslim olmaya, boyun eğmeye ve insanı köleliğe mecbur eder. Bunu yapan, kâinattaki yüce kudrete karşı gelen ve insanların, kendi elleriyle yontupl91) ürettikleri putlar olan tağuttur. Her şey put olabilir; Lât, Uzzâ,|10) araba, üstünlük
90
+ taslama, sermaye, kan, soy... Her dönemde farklı bir tağut Allah'a karşı isyan etmiştir.
91
+ Tevhid dininin özelliklerinden biri, inkılabi olması; şirk dininin özelliklerinden biri de muhafazakâr ve saptırıcı olmasıdır.
92
+ İNKILABİ DİN NE DEMEKTİR?
93
+ İnkılabi dine mensup olan ve bu dinin eğitimini alan bir kişi, hayatın maddi manevi ve sosyal alanlarının tümüne tenkidi bir gözle bakar ve batıl olarak gördüğü şeyi kaldırıp, yerine hakkı ikame etme sorumluluğunu taşır. İnkılabi olan tevhid dini, mevcudu, olduğu gibi benimsemez ama ona ilgisiz de kalmaz. Peygamberlerin tümüne bir bakın, saf ve hiçbir değişikliğe uğramamış olan ilk çıkışlarında hepsinin yaptığı ilk iş, mevcut tuğyana ve kötülüğe karşı çıkmaları ve Allah'ın kanunlarının tecellisi olan kâinattaki kanunlara itaat etmeye çağrıda bulunmalarıdır.
94
+ Mesela Musa'ya bir bakın, O, üç sembole karşı çıkmıştır: Zamanın en zengini olan Karun, şirk dininin en büyük dini lideri olan Bel'am-i Ba'ur ve en büyük siyasi otorite olan Firavun. Musa bu üç sembole mi karşı çıktı, yoksa statükoya mı? O zaman statüko neydi? O zamanki statüko, azınlıkta olan Sebti ırkının, Kıptilerin baskısı altındaki yaşamalarıydı. Musa'nın mücadelesi, Kıpti ırkının üstünlüğüne dayanan ırkçılığa ve bir ırkın, diğer ırkın esareti ve zilleti altında yaşamasına karşı çıkmaktı. Onun hedefi ve ideali, tutsak olan bir kavmi, doğru yola getirmek ve inanç temelinde kurulmuş, tağuta tapınılmayan ve tevhid dininin gerektirdiği toplumsal birliğe sahip olan bir toplum kurabilmek için o kavmi, vadedilmiş olan yere hicret ettirip yerleştirmekti.
95
+ MUHAFAZAKÂR DİN NE DEMEKTİR?
96
+ Şirk dini, tanrı, ölümden sonra dirilme ve gaybi güçler gibi metafizik bütün inanç ve din esaslarını olduğu gibi kabullenerek ya da onları tahrif edip saptırarak insanları, kendilerinin ve toplumlarının mevcut durumunun, olması gereken bir durumda olduğuna ve bu durumun, ilahi takdirin bir tecellisi olduğuna inandırmaya çalışır.
97
+ Mesela, bu günkü kaza-kader inancımız, Muaviye'nin oluşturduğu ve bize bıraktığı bir hediyedir.
98
+ Tarih açıkça göstermektedir ki, kader ve cebr/11) inancı, Emevilerin oluşturdukları bir inançtır.
99
+ Bu inanç sayesinde Müslümanları, her türlü sorumluluktan, teşebbüs ruhundan ve eleştiriden alıkoymuşlardır. Zira cebr, var olan ve sunulan her şeyi kabul etmek demektir. Oysa Hz.
100
+ Peygamber'in ashabına baktığımızda, onların, her an için toplumsal sorumluluk duygusuna sahip olduklarını görürüz.
101
+ EMR-İ Bİ'L-MA'RÜF VE NEHY-İ ANİ'L-MÜNKERL|121
102
+ Geniş halk kesimlerinde ayağa düşmüş olan ve aydınlarca telaffuz bile edilmeyen “emr-i bi'l-ma'rüf ve nehy-i ani”l- münker' kavramı, bugünkü Avrupa aydınlarına göre insan, sanat ve aydın sorumluluğu olarak ifade edilmektedir. Felsefe, sanat ve edebiyatta ele alınmış olan bu sorumluluk, “emr-i bi'l-ma'rüf ve nehy-i ani'l-münker' ile ifade edilen sorumluluğun ta kendisidir.
103
+ Ancak bugün 'emr-i bi'l-ma'rüf ve nehy-i ani'l-münker'i öyle bir şekilde uygulamaya çalışıyoruz ki, bu uygulamanın bizzat kendisi münkerdir.
104
+ ŞİRK DİNİNİN TARİHTEKİ SEYİR BİÇİMİ
105
+ Şirk dini tarihte iki şekilde devam etmiştir. Daha önce değindiğim gibi şirk dininin amacı, statükoyu savunmak ve muhafaza etmektir. Tarih boyunca insanların asil olan- olmayan, efendi-köle, sömüren-sömürülen, yöneten- yönetilen ve özgür-tutsak şeklinde iki kısma ayrıldığını görüyoruz.
106
+ Bunların bir kısmı, yiyecek, içecek, altın ve soy sop sahibi iken, diğerleri herhangi bir şeye sahip değildir. Daima bir millet diğer milletlere egemen olmuş, bir sınıf diğer sınıfa tercih edilmiş ve bir aile diğer ailelere üstün tutulmuştur. Bu durum, statükonun muhafaza edilmesi ve savunulması sonucunu doğurmuştur. Bunun için de her bölgeye ait bir tanrı olmalıdır ki, her ırk ve her hanedan varlığını sürdürebilsin, anlayışı ortaya çıkmıştır.
107
+ Bazı kimseler, kendilerine hukuki, iktisadi ve sosyal imtiyazlar tanırken, kendileri dışındakileri de mahrum bırakırlar. Ancak bu imtiyazları muhafaza etmek zordur; gün gelir zorbalar, söz konusu imtiyazları ve kaynakları zorbalıkla ellerinde tutamaz olurlar. Bu durumda şirk dini devreye girer ve statükoyu muhafaza görevini üstlenir. Şirk dininin buradaki görevi, insanları, kendilerine sunulan ve dayatılan her şeyin, Allah'ın iradesinin tecellisi olduğuna ikna etmek ve ona teslim olmalarını sağlamaktır. Bunun sonucunda da insanlar, sadece kendilerinin değil, tanrılarının ve putlarının da, kendilerinden üstün olan insanların tanrılarından ve putlarından daha aşağı bir seviyede olduğuna inanmaya başlarlar.
108
+ ŞİRK DİNİNİN KURUCU VE KORUCULARI
109
+ Şirk dini, sınıf ve ırk ayırımcılığı üzerine bina edilmiş olan bu yapıyı güçlendirme görevini üstlenir ve onu sürekli hale getirir. Bundan dolayıdır ki şirk dininin kurucu ve koroyucuları, toplumda her zaman üst tabakanın sırasında
110
+ ve seviyesinde yer almışlardır; hatta kimi zaman üst tabakadan daha etkin, üstün ve zengin olmuşlardır.
111
+ Sasanilerdeki ateşperest din adamlarına ve Zerdüşt rahiplere, Avrupa'daki keşişlere, İsrail oğullarındaki hahamlara ve Bel'am-i Ba'ur gibi tiplere, Afrika ve Avustralya'daki putperest kabilelerde bulunan büyücü, kâhin ve falcılar gibi mevcut dinin sahipleri olarak ortaya çıkan kimselere bir bakın, hepsi de ya toplumdaki egemen zümre ile el ele ve omuz omuza hareket etmişler veya onların da üstünde bir yere sahip olmuşlardır. Avrupa'da, toprağın © 75'inden fazlasının keşişlerin elinde olduğu dönemler olmuştur. Sasaniler döneminde ise, Zerdüşt din adamları ve mabetlerinin tasarrufu altındaki toprak, çiftçilerin elindeki topraktan daha çoktu.
112
+ İnandığımız ve izlerini takip ettiğimiz peygamberler, düşündüğümüzün ve tahayyül ettiğimizin aksine, tarih boyunca eski toplumlara ekonomik, ahlaki ve fikri bakımlardan zalimce ve insanlık dışı bir hayat yaşatan ve tevhid dinine karşı tağuta ve puta tapınmayı savunan şirk dininin karşısında yer almışlardır.
113
+ ŞİRK DİNİNİN TEMELİ
114
+ Şirk dininin temeli, bir grup insanı zenginleştiren, diğerlerini ise fakir bırakan ekonomik anlayıştır.
115
+ Bu ekonomik sistem, var olabilmek ve varlığını sürdürebilmek için dine ihtiyaç duymaktadır. Zira din kadar insanları kendiliklerinden boyun eğmeye sevk eden güçlü hiçbir etken yoktur. Bu görevi daima, şirk dini, statükoyu muhafaza ederek yerine getirmiştir. Şirk dini bu görevi iki şekilde yapmıştır:
116
+ 1-İnsanlara, egemen güç ve aileler sayısınca tanrı inancını aşılayarak...
117
+ 2-Kendine mensup olan egemen sınıfa, alt tabakadaki insanlara karşı imtiyazlar sağlamak ve bu imtiyazları tarih boyunca muhafaza etmek suretiyle...
118
+ UYUŞTURUCU DİN
119
+ Din karşıtlarının da söylediği gibi, şirk dininin ana unsurları, cehalet, korku, ayrımcılık, sermayedarlık ve bir sınıfın insanlarını diğer insanlara karşı üstün tutmaktır. Din karşıtlarının bu değerlendirmesi, hak din için değil, şirk dini için doğrudur. Doğru olan bir şey daha vardır ki, o da şirk dininin, zillet, sıkıntı, çaresizlik ve cehalet içinde yüzen halkları, içinde bulundukları durumun kendileri, ataları ve çocukları için ilahi bir takdir olduğuna inandıran ve buna teslim olmaya çağıran bir uyuşturucu görevini görmesidir.
120
+ MÜRCİEL131 VE SORUMSUZLUK
121
+ Mesela Mürcie mezhebine bakın; bu mezhep, İslâm toplumundaki günahkâr ve suçluların, bu durumlarından sorumlu olmadıklarını iddia etmektedir. Mürcie'nin görüşü şudur: “Allah (c) mahşerde, Ali ve Muaviye'nin hesabını görmek için terazi kurar.” Bu şu demektir: Allah (c), hesaplarını göreceğine göre, Ali ve Muaviye hakkında bir şey söylemek sana düşmez; sen, neyin doğru neyin yanlış olduğuyla ilgilenmeden hayatını yaşamaya bak!
122
+ ŞİRK DİNİNİN HAREKET BİÇİMİ Şirk dini tarih boyunca iki şekilde hareket etmiştir:
123
+ 1-Dinler tarihinde görüldüğü gibi şirk dininin, kendine mahsus bir hareket çizgisi vardır. Bu hareket, Totem,|14| tabu, (15) mana, (16) grup tanrısı, çok tanrıcılık ve ruhlara tapınma şeklinde bir seyir çizmiştir. Dinler tarihindeki bu şirk dinleri, aslında şirk dininin farklı tezahür biçimleridir.
124
+ 2-Şirk dininin en tehlikeli, en sinsi olan ve insana ve hakikate en çok zarar veren şekli gizli şirktir.
125
+ Bu, tevhid perdesi altında gizlenen şirk biçimidir. Tevhid peygamberleri şirke karşı çıktığı sürece şirk dini de onlara karşı çıkmıştır. Ne zaman ki peygamberler, muzaffer olmuşlar ve şirk dinine diz çöktürmüşlerse, şirk dini, tevhid dininin takipçileri arasında gizli bir şekilde varlığını sürdürmeye devam etmiştir. Mesela Musa'ya (a.s) ve onun davasına karşı çıkan Bel'am-i Ba'ur, Musevi din adamları olan hahamlar ve İsa'yı (a.s) öldürmeye teşebbüs eden Ferisiler kılığında ortaya çıkıp iş
126
+ yapmıştır.
127
+ İsa'yı (a.s) öldürmek isteyen, ona karşı çıkan ve putperest Rum Kayseri ile el ele, omuz omuza, tevhide karşı mücadele eden güruhun içinde, Musa'ya (a.s) inananların takipçisi olan kimseler de vardı. Bel'am-i Ba'ur ve Sâmiri, Musa'nın (a.s) getirdiği dinin kisvesi altında sahneye çıkmışlardır.
128
+ Orta çağdaki Hıristiyan keşişlerin, sevgi, dostluk, vefa ve sabır dini olan Hıristiyanlık ve barış ve affın timsali olan İsa (a.s) adına işledikleri cinayetleri, Moğollar rüyalarında bile işlememişlerdir.
129
+ Peki, bunlar İsa'nın (a.s) izleyicileri ve havarileri miydiler, yoksa şirk dininin mensupları mıydılar?
130
+ Aynı Ferisiler, bu sefer keşişler kılığında sahnedeydiler, Musa'nın dinini şirk ile öldürmek istediler ve bunu başardılar da.
131
+ Hal böyle olunca 19. yüzyılda din hakkında söylenen şu sözün doğruluğunda hiçbir şüphe yoktur: “Din, insanların, ölümden sonraki hayat ümidiyle bu dünyadaki fakirlik ve mahrumiyete karşı tahammül edebilmeleri ve yaşadıkları her
132
+ sıkıntının ve kendilerine sunulan her durumun tanrının iradesi ile olduğuna, dolayısıyla da bu durumu değiştirmelerinin mümkün olmadığına inanmaları için bir afyondur.” Yine 18 ve 19. yüzyıldaki bilginlerin söylediği şu sözler de doğrudur:
133
+ “Din, insanların, bilimsel gerçekler konusundaki cehaletlerinden doğmuştur.”
134
+ “Din, insanların mevhum korkularının Ürünüdür.”
135
+ “Din, feodal yapıdaki ayrımcılık, sermayedarlık ve fakirlik sonucu ortaya çıkmıştır.”
136
+ Peki, bu hangi dindir? Bu din, gizli kalmayan hemen tümüyle tarihe geçmiş olan şirk dinidir. Bu din, kimi zaman tevhid, Musevilik, İsevilik adlarını kullandığı gibi hilafet, Abbasilik ve Ehl-i beyt(17|
137
+ adlarını da kullanmıştır. Aslında bunlar, tevhid, cihad ve Kur'an kisvesi altındaki şirk dinleridir.
138
+ Üstüne üstlük bu dinlerin mensupları, Kur'an'ı mızraklarının ucuna takmak suretiyle bu konuda önde görünmekten de geri durmamışlardır.
139
+ Kur'an'ı mızrağının ucuna takıp sokağa çıkanlar, Lât ve Uzzâ için Hz. Peygambere karşı çıkan Kureyşliler değildi. Zira onlar, durumlarını o dönemde açıkça ortaya koyamıyorlardı. Bunun için mızraklarının ucuna Kur'an'ı takarak dâhilde Ali, dolayısıyla da Allah ve Muhammed (Ss) ile savaşıyorlardı. Halife, cihada ve hacca gidip Peygamber (s) ve onun ailesi adına Kur'an esasına dayalı İslâm devletini yönetirken aslında şirk dinini yönetiyordu.
140
+ Şirk dini, orta çağda Musa (a.s) ve İsa (a.s) adına hüküm sürmüştür. Musa (a.s) ve Isa (a.s), tevhid dininin kurucuları
141
+ oldukları halde şirk dini onların adını kullanarak varlığını sürdürmüştür.
142
+ Evet, yukarıdaki alıntılarda sözü edilen din, saptıran, uyuşturan, duraklatan, sınırlandıran ve insanların durumlarına karşı lakayt davranan şirk dinidir. Bu din, tarih boyunca da insanlara musallat olmaktan geri durmamıştır. Demek ki, “Din, korkudan doğmuştur; insanları uyuşturur ve sınırlandırır; feodalitenin ürünüdür.” diyenler doğru söylemişlerdir. Bu tespitleri yapanlar, tarihi esas almaktadırlar; oysa bunlar, din konusunda da tarih konusunda da uzman kimseler değiller.
143
+ Dolayısıyla tarihe bakan herkes gibi onlar da, tevhid-şirk ayrımı yapmadan din hakkında genel değerlendirmelerde bulunmuşlardır.
144
+ Gerçekten de İbrahimi dinlerdeki ve şirk dinlerindeki tanrı isim ve sıfatlarını karşılaştırdım ve şirk dininin, korku ve cehaletten doğduğunu gördüm. Bundan dolayıdır ki müşrikler, insanların, uyanmasından, okur-yazar ve bilgi sahibi olmalarından korkarlar. İsterler ki, belli konulardaki bilgiler her zamanki gibi sabit kalsın, o konularda ilerleme kaydedilmesin ve bu bilgiler de kendi tekellerinde olsun. Zira bilginin artması, insanların uyanması, tenkidi bakış açısı, ideal sahibi olma ve adalet talebi, şirk dinini sarsar ve yok eder. Bunun içindir ki, şirk dini feodalizm öncesinde, sırasında, sonrasında, Doğu'da ve Batı'da daima mevcut durumu muhafaza yoluna gitmiştir.
145
+ Şirk dinlerindeki tanrıların bütün isim ve sıfatları, korku, vahşet ve zorbalık gibi istibdadın farklı boyutlarını içeren isim ve sıfatlardır. Oysa üç bin yıl önceki dinler dâhil, İbrahimi dinlerin isimlerinin manaları şu iki mana ile bir şekilde bağlantılıdır:
146
+ 1-Aşk, güzellik, celal ve cemalin yegâne sahibine kulluk 2-Koruma, dayanak noktası, baba şefkati, lider ve sığınak
147
+ Öyleyse tarih boyunca dünyada hüküm süren şirk dininin, cehaletten ve insanların doğa olaylarından kaynaklanan korkularından doğduğu düşüncesi doğrudur. Hâlbuki İbrahimi dinler aşktan, insanın, tek hedefe ve kâinattaki tek rabbe kendisini adamasından, varlıktaki tek kıbleye yönelmesinden, ruhi, fikri ve sosyal her tür ihtiyacına cevap veren mutlak cemal, kemal ve celal sahibine olan bağlılığından doğmuştur.
148
+ İbrahimi dinlerin peygamberleri, maddi, manevi ve sosyal bütün egemen güçlere ve -F. Bacon'un ifadesiyle- zihni, beşeri, ekonomik ve maddi her tür puta karşı çıkmışlardır. Kendilerini ve mensuplarını, statükoyu değiştirmek ve Kur'an'da peygamberlerin gönderiliş amacı olarak gösterilen adaleti sağlama ve sürdürme konusunda sorumlu görmüşlerdir.
149
+ Bütün bunlardan hareketle varmak istediğimiz nokta şudur: Tarih boyunca din, dinsizliğe karşı değil, dine karşı olmuş ve dinsizlikle değil, din ile savaşmıştır.
150
+ Bilgi, basiret, aşk ve insanlığın fıtri adanmışlığı üzerine kurulmuş olan tevhid dini, cehalet ve korkudan doğmuş olan şirk dininin karşısında yer almıştır. İnkılabi bir din olan tevhid dini daima, sahih inançları tahrif etmek ya da sahte inançlar ve tanrılar üretmek suretiyle statükoyu koruyan tağutperestliğe karşı çıkmıştır.
151
+ Tevhid peygamberi, insanları, Allah'ın iradesinin tecellisi olan varlıktaki kanunlara ve evrensel gidişata uymaya çağırır. Tevhid dininin gereği, Allah dışındaki her güce 'hayır' demektir. Allah'a kulluğun karşısında, tağutperestlik vardır. Tağut ise insanı, evrene ve insan hayatına egemen olan hak
152
+ nizama karşı çıkmaya ve toplumdaki farklı güç odaklarının tezahürleri olan çeşit çeşit putlara köleliğe ve onlar karşısında zelil olmaya davet eder.
153
+ ALLAH VE İNSAN
154
+ Tevrat ve İncil'in tahrif edilmemiş olan bölümlerinde ve Kur'an'ın istisnasız hemen her yerinde insan ile Allah kelimeleri aynı çizgide zikredilmektedir. Yani ilmi ve yaradılışa dair ayetlerde değil, sosyal, siyasi ve ekonomik meseleleri açıklayan bütün ayetlerdeki en-nâs kelimesini kaldırıp yerine Allah kelimesini koymak, Allah kelimesinin yerine ise en-nâs kelimesini koymak, cümlede hiçbir değişikliğe neden olmaz.(181 Mesela “Kim Allah'a güzel bir borç verirse...” (191 Ayetinin manası, Allah'ın ihtiyacı olduğu için Ona borç vermek demek değildir; onun manası, “insana borç vermek”
155
+ demektir. Sosyal konularla ilgili ya da sosyal bir yönü olan bütün ayet ve hadislerde Allah ile insan aynı safta yer almaktadırlar.
156
+ TAĞUTA TAPANLAR
157
+ Hak din safının karşısında kimler vardır? Tağuta tapanlar; peki tağuta tapanlar kimlerdir? Tağuta tapanlar, Kur'an'da mele' ve mütref|201 olarak geçen toplumdaki aç gözlü oburlar ve her yetkiye sahip olup hiçbir sorumluluğu olmayan kimselerdir.
158
+ Mele' ve mütref dini, ya kendi adıyla açık bir şekilde ya da “Allah ve insan dini! olan hak dinin perdesi altında kendisini gizleyerek tarin boyunca egemen olmuştur. Oysa tevhid dininin hükümranlığı tarihte gerçekleşmemiştir. Bana göre Şianın gurur duyulacak özelliklerinden biri, orta çağda İslâm yönetimi adına dünyaya sunulan hiçbir şeyi kabul etmemesi, sömürgeci emperyalistlere karşı mücadeleden geri
159
+ durmaması ve söz konusu yönetimleri Allan Resulü'nün hilafeti olarak değil Kayser ile Kisra yönetimleri olarak kabul etmesidir.
160
+ Zaten İbrahimi ve tevhidi din, daima, tağuta tapınmaya, mele' ve mütref dinine karşı çıkmış, insanları da bu cepheye karşı çıkmaya davet etmiştir. Tevhid dini şunu söylemiştir: Allah, siz insanların safındadır; Onun muhatabı insandır ve amacı, adaleti sürekli bir hale getirmektir. Tevhid dini, insanı, kâmil hale getiren bilgi, sevgi, yüce kudrete kulluk ve bilinç dinidir. Ne yazık ki, tarihe ve mevcut duruma karşı eleştiri ile ortaya çıkan tevhid dini, tarihte hiçbir zaman tam olarak hayata geçememiştir. Tağuta yani mele' ve mütrefe tapınmayı öneren muhafazakâr ve uyuşturucu şirk dini ise her zaman var ve egemen olmuştur.
161
+ Bana, “Bir aydın olarak sen, nasıl dine bu kadar sarılıyorsun?” diyen aydınlara da şunu söylemek istiyorum: “Ben bir dinden söz ediyorsam, bilin ki, geçmişte topluma hükmetmiş olan herhangi bir dinden değil, bu dini ortadan kaldırmayı hedefleyen dinden söz ediyorum. Peygamberleri, her tür şirki ortadan kaldırmak için çalışmış olan dini kastediyorum. Ancak sözünü ettiğim din, hiçbir zaman sosyal hayat bakımından tam olarak toplumda hayat bulamamıştır. Benim dile getirmek istediğim bu konudaki şu sorumluluğumuzdur: Tevhid peygamberlerinin yaptığı gibi, muhafazakâr ve uyuşturucu şirk dinini kaldırıp yerine tevhid dinini ikame etmek için çaba göstermek, bizim ve gelecekteki insanların insani sorumluluğudur.”
162
+ Öyleyse benim dine sarılmam, geçmişe dönmek değil, tarihteki bu mücadeleyi devam ettirmek demektir.
163
+ DİNE KARŞI DİN İKİNCİ BÖLÜM
164
+ Birinci bölümde, “dine karşı din” ifadesinden neyi kastettiğimi söyledim. Orada söylediğim, aslında karmaşık felsefi bir konu değil, basit bir konudur. Fakat pek çok basit konu vardır ki, onları ihmal ettiğimizde sonuçları çok ağır olmaktadır. İşte benim de yeni fark ettiğim gerçek şudur: Kafalarımızdaki anlayışın aksine, tarih boyunca din, küfürle yani dinsizlikle savaşmamıştır. Çünkü tarih, sosyoloji, din sosyolojisi ve antropoloji bilimlerinin de gösterdiği gibi tarihte tanrısız hiçbir toplum yoktur ve insanların toplumsal yaşamları din merkezli olmuştur.
165
+ Yine şunu söyledim: Geçmişteki bütün toplumlar, hangi ırktan ve hangi dönemde olursa olsun, dini toplumlardır. Yani tarihteki her toplumun düşünce ve kültürünün temelinde din vardır. Kültürleri ve medeniyetleri inceleyen ya da üniversitede okutan bir tarihçi, görür ve bilir ki, aslında tek toplum ve tek millet vardır; değişen, sadece din ve kültür anlayışlarıdır. Kim Vedalar|(21) ve Buda dinlerini dikkate almadan Hint kültüründen söz edebilir? Kim antik Çin'i değerlendirirken, Çin kültürünün özü ve temeli olarak değil de sadece bu kültürün büyük şahsiyetlerinden birileri olarak Laf Tsel(22|
166
+ ve Konfüçyüs'ten söz edebilir?
167
+ Bu gerçeklerden anlıyoruz ki, tarihl231) boyunca bütün toplumlar, dine bağlı olarak yaşamışlardır.
168
+ Toplumlar, sadece bir dine inanmakla kalmamış, yaşamlarında da dini esas almışlardır. Din, sadece onların manevi, ahlâki ve düşünsel hayatlarını değil, maddi ve ekonomik hayatlarını, hatta şehirlerinin mimari yapılarını bile yüzde yüz etkilemiştir. Daha önce de söylediğim gibi antik şehirlerin çoğu, sembolik şehirler olup bir mabet etrafında kurulmuştur. Zamanla bu mabet, o şehir için bir
169
+ sembol haline gelmiştir. Bu gün Eyfel kulesi Paris'in sembolü olduğu gibi, geçmişte de mabetler şehirler için bir semboldü.
170
+ İlk insan Hz. Âdem'den son peygambere kadar İbrahimi dinlerin/İslam dininin bütün peygamberleri, hangi cepheye, hangi düşünceye ve hangi sosyal yapıya karşı çıkmışlardır ve hangi cephe onlara karşı durup direnmiştir? Bu cephenin, küfür cephesi olduğunu biliyoruz; fakat küfür, dinsizlik değildir. Zaten peygamberler de insanları salt anlamıyla dine davet etmek ya da onlarda dini duyarlılık oluşturmak için gelmemişlerdir. Peygamberler, fertler ve toplumlar, illaki bir dine inansınlar diye de çalışmamışlardır. Yine peygamberler, toplumda ibadeti yaygınlaştırmak için de gelmemişlerdir; çünkü ibadet, dini duygu, gayba ve bir tanrıya, ya da tanrılara inanma kişilerde ve toplumlarda daima var olagelmiştir.
171
+ Tarihte, peygamberlere, daha çok da İslâm kelamcıları ve filozoflarına karşı çıkan zındıklar ve dehrilerel24 gelince, bunlar, başka bir dini anlayışa sahiptiler ve farklı bir metafizik inanışları vardı.
172
+ Ayrıca dehrilik olgusu, geç dönemde ortaya çıkmış olan bir olgudur. Felsefe ve akılcı düşüncenin gelişmesi ile birlikte nadir de olsa bazı kimseler, din ve maneviyat konularında bazı şüpheler ortaya attılar. İşte dehriler, bu çerçevede ortaya çıkan kimselerdir. Demek ki dinsizlik, tarihte kelime anlamıyla hiçbir zaman var olmamış, herhangi bir toplum oluşturmamış ve herhangi bir döneme damgasını vurmamıştır.
173
+ Daha öncede söylediğim gibi insanlık tarihinde sosyal yapısı, tarihi, ekonomisi, kültürü ve medeniyeti bir birinden farklı pek çok toplum yaşamıştır ve bunların tümü de dini toplumlardır.
174
+ Bunun içindir ki peygamberlerimiz, insanlık tarihinin başlangıcından beri, toplumlarının ihtiyaçları ve sorunlarına göre dini hareketlerini şekillendirip toplumun mevcut dinine ve onun koruyucularına karşı harekete geçmişlerdir. Buna mukabil, her zaman bir güç, peygamberlere karşı çıkmış ve bizim inandığımız dini hareketi engellemek, onu yok etmek ya da tahrif etmek için bütün gücünü ve imkânını kullanmıştır. Bunu, dinsizlik değil küfür yapmıştır.
175
+ Öyleyse bizim inandığımız manada din, insanlık tarihi boyunca, başka bir dine karşı çıkmış ve peygamberlerin mücadelesi, dinsizliğe karşı değil, küfre karşı olmuştur. Zira toplumlarda dinsizlik vücut bulmamıştır. Dolayısıyla da mücadele, toplumun ve zamanın dinine karşı yapılmıştır.
176
+ KÜFÜR DİNİ VE İSLÂM DİNİ
177
+ Allah (c), Peygamber'e (s) şöyle diyor: “De ki: Ey kdfirler, 1251.” (261 Bu ayetin geçtiği Kâfirün suresindeki tekrara ve Peygamber'e (s) söylemesi emredilen “Ben sizin taptıklarınıza tapmam!”
178
+ ayetindeki inceliğe dikkat edin. “Ben sizin taptıklarınıza tapmam!” ayeti “Ey Muhammed, sana karşı gelenlere söyle: Ben, siz kafirlerin ibadet ettiği şeye ibadet etmem!” demektir. Kullanmak istediğim her kelime, bu surede mevcuttur. Bu ayette, ibadet meselesinin karşısında ibadetsizlik değil, ibadet yer almaktadır. Yani Peygamber'in (s) karşısında yer alan kimseler ibadete inanmayan tanrıtanımaz kimseler değildi; bilakis ondan daha çok tanrıya sahiptiler. Görüldüğü gibi tartışmaya konu olan asıl mesele, din meselesi değil tanrı meselesidir. Daha sonra gelen “Siz de benim taptığıma tapacak değilsiniz” (271 ayeti, anlam bakımından bir önceki ayetin aynısıdır. Bu tür tekrarlarla Kur'an, önemli meseleleri farklı boyutlarıyla tam olarak zihinlere yerleştirmeyi amaçlamaktadır. Bundan
179
+ dolayıdır ki “Ben sizin taptıklarınıza tapmam!” ayetinden hemen sonra “Siz de benim taptığıma tapacak değilsiniz.” ayeti nazil olmuştur. Nihayetinde sure, şöyle bir açıklama ile bitmektedir: “Sizin dininiz size, benim dinim banadır. ”(28) Yani din, din ile savaşır.
180
+ TARİHE KÜFÜR DİNİ EGEMENDİR
181
+ Peki, birinci bölümde sözünü ettiğimiz savaşta hangi taraf galip oldu? Tevhid / (benim dinim banadır) dini mi, yoksa kâfirlerin dini mi? Tarih boyunca kâfirlerin dini galip olmuştur. Toplumlara baktığımızda, hak olduğuna inandığımız peygamberler, tarihin hiçbir döneminde dinlerini, istendiği gibi tam olarak topluma hâkim kılamamışlardır.
182
+ Peygamberler, daima kendi dönemlerindeki mevcut dinlere karşı bir devrim şeklinde dinlerini ortaya koymuşlardır. Ancak ellerinde güç olan kâfirler, her seferinde statükoyu muhafaza eden dinlerini toplumda daha kuvvetli bir şekilde hakim kılmışlardır. Çünkü ekonomik, sosyal ve siyasi güç daima onların elinde olmuştur. Tarihin başlangıcından şimdiye kadar hak din, toplumda tam olarak yaşama imkânını bulamamıştır. Bundan ötürü de toplumlar, tarih boyunca küfür dininin tasallutu altında yaşamak zorunda kalmışlardır.
183
+ Peki, bu din, hangi dindir ve bu dinin mensupları kimlerdir? Dinin mahiyetini aydınlığa kavuşturmak ve daha basit ve anlaşılır bir açıklama yapmak için dini metinlerden farklı isimler ve sıfatlar da çıkarılabilir, fakat Peygamber (Ss), bu dinler için “Sizin dininiz size, benim dinim banadır.” ifadesini kullanmıştır. Muhatap bakımından 'insan dini', öz, eksen ve davet yönü bakımından 'Allah'ın dini!
184
+ olarak nitelendirilebilecek dini, Peygamber (s), “Benim dinim banadır!” şeklinde ifade etmiştir.
185
+ Tarih boyunca mevcut dine karşı bir itiraz ve devrim şeklinde ortaya çıkan ve peygamberler tarafından tebliğ edilen hak dinin muhatabı insan, ulaşmak istediği hedef ise Allah'tır.
186
+ MAL HALKINDIR
187
+ Kur'an'a baktığımızda ilk kelimenin, Allah, son kelimenin ise en-nâs (insanlar) kelimesi olduğunu görüyoruz. Kur'an'ın her yerinde muhatap insandır. Birinci bölümde 'Allah ve insan dini!
188
+ olarak ifade ettiğim hak din, felsefi açıdan -panteizm dışında- Allah'ın zatını, Onun dışındaki varlıklardan ayırmaktadır; ancak sosyal bakımdan ikisini aynı safta görmektedir. İnsanın sosyal ve ekonomik hayatı ile ilgili bütün ayetlerde Allah kelimesinin yerine en-nâs (insanlar) kelimesi, en-nâs (insanlar) kelimesi yerine de Allah kelimesi kullanılabilir. Mesela “Mal, Allah'ındır. “(291
189
+ İfadesi, putperestlerin iddia ettiği gibi, Allah'ın da ihtiyaçları vardır; onun için mabede ve onun sahibine adaklar ve kurbanlar vermek gerekir, şeklinde anlaşılmamalı. “Mal, Allah'ındır.”
190
+ ifadesi, “Mal, insanlarındır.” demektir. Bu, günümüz dünyasının etkisinde kalarak benim yaptığım bir yorum değildir; Ebü Zer el-Gifari'nin, Muaviye'nin yakasından tutup ona Söylediği şu sözün aynısıdır: “Sen, 'Mal, Allah'ındır. şeklindeki sözünle insanların malını yemeyi amaçlıyorsun ve şunu demek istiyorsun: Mal, insanların değil Allah'ın malıdır, ben ise Allah'ın yeryüzündeki temsilcisiyim. Dolayısıyla da insanların (kamu) malını dilediğim gibi kullanırım, istediğim kimselere veririm ve istemediğim kimselere de vermem!”
191
+ Bu sözü ile Ebü Zer, Muaviye'ye “Mal, Allah'ındır.” ifadesinin, “Mal, insanlarındır.” anlamında olduğunu dolayısıyla da malın ve servetin, imtiyazlı sınıfa değil halka ait olduğunu öğretmiş
192
+ oluyordu. Allah'ın malı, halkın malıdır; çünkü sosyal ve ekonomik konularda Allah ile halk / nâs aynı saftadırlar. Bundan dolayıdır ki, “İnsanlar, Allah'ın ailesidir (ıyâl). “1301 denmiştir.
193
+ ALLAH'IN AİLESİ
194
+ Allah'ın ailesinin yani insanların karşısında mele' ve mütref zümresi vardır. Bu zümre, tarih boyunca insanlar üzerinde tahakküm sahibi olmuş ve insanların varını yoğunu ellerinden almıştır. Böylece insanlar kendi sosyal ve ekonomik kaderlerini tayin etme hakkından mahrum kalmışlardır.
195
+ Mele ve mütref sınıfının dini vardır. Onlar, hiçbir zaman materyalist, egzistansiyalist ve ateist olmamışlardır ve değillerdir. Firavun dâhil hepsinin de bir ya da birden fazla tanrısı vardır. Zaten onların nasıl bir dine sahip oldukları da aşikâr bir durumdur. Peygamberler, onlara karşı çıkmış
196
+ ve onların dini olan şirk dinini ve Allah'a isyanı tazammun eden tağutperestliği yok etmek için çalışmışladır.
197
+ SINIFSAL VE IRKİ İHTİLAFLAR
198
+ Birinci bölümde dediğim gibi şirk, sadece felsefi bir yorum değil, aynı zamanda statükonun muhafazası ve savunuculuğudur. Peki tarihte statüko neydi? Tarihte statüko, sosyal şirkti. Sosyal şirk ise putperest toplumlardaki çok sınıflılık ve çok ırklılık demektir. Böyle bir toplumda her ırkın ve her kabilenin bir putu vardır ve herkes kendine mahsus puta ibadet eder. Toplumu oluşturan ırklar, sınıflar ve grupların kendilerine mahsus hukuki statüleri ve hakları vardır; bundan dolayı da toplumun soylu kesimidirler. Oysa tevhid dini yani 'Allah ve insan' dini, peygamberler aracılığıyla, Allah dışında hiç bir mabud, yaratıcı ve rabbin var olamayacağını bildirmiştir.
199
+ YARATICILIK VE RUBUBİYET|31)
200
+ Bütün şirk dinleri, yaratıcılık özelliğinin Allah'a ait olduğunu kabul eder fakat rab olma özelliğine gelince bu noktada çok sayıda put devreye girer. Nemrut ve Firavun gibi kimseler bile yaratıcılık iddiasında değil, rab olma iddiasında bulunmuşlardır. Firavun demiştir ki: “Ben sizin en yüce rabbinizim!” Yani ben sizin en büyük sahibinizim, sizin yaratıcınız değilim. Yunan mitolojisi dâhil bütün şirk dinlerinde Allah, yaratıcı olarak yer almaktadır. Yunan mitolojisine göre Allah evreni yaratıp kenara çekildikten sonra devreye diğer tanrılar girmişlerdir. Şirk düşüncesinin amacı, insanları ırklara ve milli toplumlara bölmek, daha sonra da birbirlerine karşı sınıflar ve gruplar oluşturarak yöneten (yönetilen ve fakir) yoksul kesimlerini oluşturmaktır.
201
+ İDEAL TOPLUM MODELİ: MEDİNE
202
+ Tarih boyunca 'Allah ve insan' dini|321, toplumu mevcut yapı üzerinde yapılandıran bir din olarak değil, mevcut yapıya karşı bir hareket olarak ortaya çıkmıştır. İnsanlık tarihi boyunca 'Allah ve insan' dinine göre kurulmuş olan tek toplum, Medine toplumudur. O da bir dönem olarak değil sadece bir model olarak tarih sahnesine çıkabilmiştir.
203
+ Medine toplumunun ömrü ve tarihi, insanlığın bilebildiğimiz elli bin yıllık tarihi içinde sadece on yıldır. Bunun dışında sürekli olarak, saf ve doğru din olan tevhid dininin perdesi altında şirk dini Medine'de hüküm sürmüştür. Ekonomik sistem, toplumsal düzen, eğitim sistemi, fertler, gruplar, sınıflar, ırklar ve azınlık-çoğunluk arasındaki ilişkiler, sadece on yıl “Allah ve insan' dinine göre yaşanmıştır. Bu da tam olarak gerçekleşmemiş, ancak yapının ana iskeleti ve çatısı kurulabilmiştir.
204
+ Zira böyle tarih üstü bir yapıyı, on yılda kurmak mümkün değildir. Bu on yıl içinde insanlar, cahiliye döneminden kalma alışkanlıklarını ve sosyal ilişkilerini tam olarak değiştiremedikleri gibi bu çatıyı da muhafaza edememişlerdir. Nitekim yirmi yıl sonra, düşman, bu yapıya musallat olup onu ele geçirmiştir.
205
+ Burada şu sonuca varıyoruz: Tarihi bu şekilde okumak ve yorumlamak, din, dinsizlik, günümüzdeki dinsiz aydınlar, geçmişteki dindarlar, medeniyet, ilim, materyalistler ve dindarlar hakkındaki anlayışlarımızın tümünü değiştirmektedir.
206
+ Öyleyse 17, 18 ve özellikle de 19. yüzyılda “Din, halklar için bir uyuşturucudur.” diyen aydınlara hak vermek gerekir. Çünkü onlar, tarihte var olan bir dinden söz ediyorlardı. Tarihe egemen olan dine bakıp inceledikten sonra görmüşler ki din, gerçekten insanları uyuşturuyor. Dolayısıyla “Din, ekonomik ve sosyal bakımdan, azınlığın çoğunluk üzerinde tahakküm kurmasını sağlayan bir araçtır.” diyen bu kimselere hak vermek gerekir. Zaten feodal dönemde dinin görevi, statükoyu yani kölelik ve efendiliği korumaktı. Sadece feodal dönemde değil, şekli ne olursa olsun, yönetim ve ekonominin mevcut olduğu farklı toplumlarda her dönemde ve her sınıfta din, insanların fıtri din duygularını istismar ederek statükoyu koruyan bir araç olmuştur. Bunun örnekleri pek çoktur.
207
+ Tarihin herhangi bir dönemine baktığınızda dinin neler yaptığını görebilirsiniz. Bunun örneklerinden biri Iran'dır.
208
+ ANTİK İRAN'DA DİN
209
+ Sasani döneminde din, toplum üzerinde tam bir egemenliğe sahipti. Padişahlar ve onların çocukları, Zerdüşti din adamlarının ve mabetlerinin sözünden çıkmıyorlardı. Her
210
+ tabaka, diğer bir tabakadan tam olarak ayrıydı; hiç kimse hiçbir şekilde içinde bulunduğu tabakadan çıkıp bir üst tabakaya terfi edemiyordu, sınıf değiştiremiyordu.
211
+ Sasaniler döneminde şah ailesi ve eşraf, birinci sınıfı teşkil ediyordu. Onların yanı başında yer alan ikinci sınıf ise Zerdüşti din adamlarıydı. Sasani tarihinde iktidar, bu iki tabakanın arasında gidip gelmiştir; bazen birinci tabaka iktidarı ele geçiriyordu, bazen de ikinci tabaka. Ama mele' ve mütref olan her iki tabaka da insanları sömürüp fakirleştiriyordu. İki tabaka arasında tek bir fark vardı; o da, birinci tabaka zorbalıkla, ikinci tabaka ise dini kullanarak insanlar üzerinde tahakküm kuruyordu.
212
+ Sonuçta vakıa şuydu: İnsanların mal varlıkları tamamıyla bu iki tabakanın elindeydi. Ancak bazen din adamları, daha çok pay alabiliyorlardı. Nitekim Albert Mallet diyor ki: “Bazen Zerdüşti din adamlarının elindeki malın oranı, bütün malların yüzde 18/20 sine ulaşıyordu.”
213
+ Sasanilerin üçüncü sınıfı ise sanatkâr, esnaf, asker ve sıradan insanlardan oluşuyordu. Hiçbir meziyeti olmayan ve Hindistan'da olduğu gibi, soysuz olarak kabul edilen bu sınıfın hiçbir sosyal hakkı yoktu. Firdevsi,(331 hicri dördüncü asırda Rüstem-i Ferhzad'ın ağzından şunları söylemektedir: “İslâm geldiğinde her şeyi dağıtır, soylar birbirine karışır, hünersiz köle padişah olabilir ve insanları yönetmek için soy ve ululuk bir anlam ifade etmez. Irk ve hanedanın yönetim açısından bir önemi kalmayınca köleler bile yönetici olabilir.”
214
+ Firdevsi'nin İslâm'a hakaret amacıyla söylediği bu sözler, günümüz dünyasında İslâm'ın gurur duyulacak özelliklerindendir.
215
+ Sasani dönemindeki üçüncü tabaka, dini açıdan nasıl değerlendiriliyordu? Zorbalar, felsefeyi bilmedikleri, din
216
+ hakkında bilgileri olmadığı ve metafizik dünyayı anlamadıkları için işlerini kaba kuvvetle hallediyorlardı. Bir ayakkabıcı çocuğu okuyamazdı. Çünkü o okuduğu zaman yönetici ya da yönetim sınıfının bir üyesi haline gelebilirdi! Mademki babası ayakkabıcıdır, öyleyse dahi de olsa ayakkabıcının çocuğu, ömrünün sonuna kadar ayakkabıcı olarak kalmalıdır! Eğer dahi ise dâahiliğini ayakkabıcılıkta kullanmalıdır!
217
+ SINIFLI YAPININ KORUYUCULARI OLAN ZERDÜŞTİ DİN ADAMLARI
218
+ Sasaniler dönemindeki Zerdüşti din adamları, dini kullanarak insanları bölmenin ve toplumu sınıflı hale getirmenin öncülüğünü yapıyorlardı. Sasaniler döneminde, her biri ulu tanrı Ahuramazda'nın tecellisinin birer parçası olan üç ateş vardı:
219
+ 1-Azerbaycan'da bulunan Âzergeşesb ateşi 2-Sebzevar yakınlarındaki Âzerberzinmehr ateşi 3-Pars bölgesinde bulunan Âzeristehr ateşi
220
+ Bu üç ateş, Ahura Mazda'dır, Ahura Mazdal|34| ise toplumu tabakalara ayırır. Azerbaycan'daki ateşten padişahlar ve onların çocukları, Fars'taki ateşten Zerdüşti din adamaları ve Sebzevar yakınındaki kalede bulunan ateşten ise çiftçiler oluşmuştur.
221
+ İyilik tanrısının bir olduğu ve herkesin Ahura Mazda'ya tapıp Ehrimen'lel35) mücadele etmesi gerektiği Zerdüşt|361| dininde bile Ahura Mazda'nın toplum hayatında tek tezahürü ve tek ateşi değil, birden çok tezahürü ve ateşi vardı. Kutsal ateşin anlamı şudur: Söz konusu üç tabaka birbirinden ayrıdırlar, birbirlerine karışmaları mümkün değildir ve birbirine benzer hiçbir yönleri yoktur; kutsal ateş
222
+ bunu gerektirir. Bu dinin mensuplarına göre bu ayrışma, Ahura Mazda'nın toplum hayatındaki tecellisidir. Böylece Ahura Mazda, toplumdaki bu üç tabakalı yapıyı daha sabit hale getirmiştir. Bunun için de, bir çiftçi bilir ki, onun kutsal ateşi Fars bölgesinde ya da Azerbaycan'da değil, Sebzevar'dadır ve diğer ateşlerle de hiçbir alakası yoktur.
223
+ Hindistan'a bir bakın, Buda, tanrılar ve büyük tanrı hakkında bilgi vermek ya da bir manayı, yüce bir duyguyu ve yüksek seviyedeki bir düşünceyi açıklamak istediğinde derdi ki, bu Aryai, Arya ırkına ait bir değer ve bir düşüncedir. Yani bu düşünce, Aryal olmayan pis insanlara değil, necip, yüce ve soylu bir ırk olan Arya'ya aittir!
224
+ Görüyoruz ki, tanrılar ve en kutsal duygu ve düşünceler bile ırki ve sınıfsal bir üslupla ele alınmıştır. Bu dönemde felsefi düşünce henüz tam olarak gelişmediği için bu ayırımcılık dine dayalı olarak gerçekleşmiştir. Eflatun ve Aristo'ya göre köle ezelden beri köle, efendi ise ezelden beri efendidir. Aristo şöyle demektedir: “Dünyada asil kana sahip olan soylu aile sayısı sadece yirmidir; bunlar da Atina aileleri olup sayıları ne azalır ne de artar.” Filozoflar tarafından yapılmış olan bu değerlendirmelerde yine din etkili olmuştur. Çünkü o dönemde toplum üzerinde felsefe değil din hâkimdi. Din ise bu dönemde de mevcut durumu savunan bir yapı olarak karşımıza çıkmaktadır.
225
+ Bu din, şu öğütleri ile insanları uyuşturuyordu: Sizin bir sorumluluğunuz yoktur, çünkü her ne oluyorsa tanrının iradesi ile oluyor! Yoksulluğunuzdan şikâyet etmeyin, çünkü diğer dünyada, çektiğiniz sıkıntıların karşılığını alacaksınız! Öyleyse bu dünyadaki eksikliklerinizden söz etmeyin, çünkü diğer dünyada onların on misli size verilecektir!
226
+ Böylece itiraz etme ve tercihte bulunma arzuları, insanların iç dünyalarına ve zihinlerine hapsedilmiş
227
+ oluyordu. Bir kişi ya da bir grup, ayaklandığında da zorbalar, onları kaba kuvvetle bastırırlardı.
228
+ Burada dinin rolü, ayaklanma, eleştirme ve özgürce düşünme ruhunu insanların iç dünyalarında etkisiz hale getirmekti. Din bunu, “Vuku bulan her şey Allah'ın iradesi ile olmaktadır; dolayısıyla yapılan her itiraz Allah'ın iradesine olan bir itirazdır.” şeklindeki düşünce ile gerçekleştiriyordu.
229
+ Görüyoruz ki bütün bu öğretiler, dini öğretilerdir. Zaten din, inanç ve ibadet esaslarına dayalı olarak oluşan bu öğretilerden meydana gelmektedir. Buna karşılık, insanları uyuşturan, aldatan, büyüleyen, iradelerini ellerinden alan, toplumu soy ve sınıf esaslarına göre yapılandıran, hatta tanrıları bile milli(371 ölçülere göre belirleyen dinin karşısındaki her şeyin, hak din olduğunu görüyoruz.
230
+ TEVHİD DİNİNİN PEYGAMBERLERİ
231
+ Çoban ve emekçi olan tevhid dininin peygamberleri, baştan sona egemen sınıfın yani keşişlerin, Zerdüşt rahiplerin, büyücülerin ve muğların yapımı olan dinin karşısında yer almışlardır. Onlar, sıkıntıyı, fakirliği ve açlığı herkesten daha çok yaşamış ve bu halleri bedenlerinde ve ruhlarında hissetmişlerdir. Peygamberimizin (s) dediğine göre bütün peygamberler çobanlık yapmıştır.
232
+ Tevhid ve insan düşmanı olan ve tarihte sürekli olarak hüküm süren tağutperestlik dini ise her zaman, hiçbir şeyi olmayan bir tabakaya zulmeden, onları kandıran, susturan ve her şeye sahip olan tabakaların kullandığı bir araç olmuştur.
233
+ ŞİRK DİNİ
234
+ Tağutperestliğin ilk ve açık şekli şirktir. Günümüzde Afrika'da bu din mevcuttur. Birden çok tanrıya inanmak,
235
+ güzel boncuklara tapmak, her kabilenin kendine ait bir 'tabu'ya ve kutsal bir hayvana ibadet etmesi demek olan bu din, hala bazı yerlerde mevcuttur.
236
+ Açık ve aşikâr olan mele' ve mütref dini olan tağutperestlik ile mücadele etmek kolaydır. Ancak tarihte olduğu gibi, tevhid adı altında faaliyet gösteren ve tağuta ibadeti Allah'a ibadet adı altında gerçekleştiren şirkin ikinci şekli olan gizli şirk ile mücadele etmek oldukça zordur.
237
+ Şu soruya cevap verilebilirse, İslâm tarihindeki pek çok sorun hatta sosyal sorunlar bile çözülebilir: Hz. Muhammed (s) de Hz. Ali de aynı dini tebliğ ettiler, neden biri başarılı oldu, biri başarısız oldu?
238
+ Miladi 7. asırdaki Arap toplumunda, din İslâm dini, Kur'an aynı Kur'an, Allah aynı Allah, dil aynı dil, zaman aynı zaman, toplum aynı toplum, Hz. Muhammed (s) de Hz. Ali de insanları aynı şeye davet ettiler; fakat biri muvaffak oldu diğeri olmadı, neden?
239
+ Sorduğum bu soruya bazıları, şöyle korkunç cevaplar vermişlerdir: “Ali, uzlaşmacı değildi, haksız olanlarla uzlaşma yoluna gitmezdi, baskıyı ve zulmü kabul etmezdi, katı idi...” İyi ama muvaffak olan Hz. Muhammed (s) de böyle davranmıyor muydu?
240
+ Doğrudur, Hz. Ali'nin başarısızlığında bu sebeplerin etkisi vardır; fakat bu sebepler konuyu tam olarak açıklamamaktadır. Bu sorunun cevabı, Peygamber (s) zamanında olmayan fakat Hz. Ali zamanında var olan bir sebepte aranmalıdır. Aşikârdır ki bu sebep, ırk, kabile, hanedan ve sınıf esasına dayanan ve dönemin mele' ve mütrefini Kureyş kabilesinin elindeki araç olan tağut perestlik ve şirk dinidir.
241
+ Şirk dini, Peygamber (s) döneminde açık ve netti. Ebü Süfyan, Ebü Cehil ve Ebü Leheb, putların kendilerine ait olduğunu, Kureyş ticaretinin devam etmesi için Kâ'be'yi korumaları gerektiğini, Kureyş hâkimiyetinin ve ticaretinin putlara dayalı olduğunu, dünyada ve Arap kabileleri arasındaki üstünlüklerinin, makamlarının ve haysiyetlerinin Kâ'be'ye ve putlara bağlı olduğunu açık bir şekilde söylüyorlardı. Onlar diyorlardı ki, bu putlar ve onlarla ilgili efsaneler, bize atalarımızdan miras kalmıştır, dolayısıyla onları hiçbir şeyle değiştiremeyiz, onları savunmak zorundayız. Onlar, bu görüşlerini açıkça söyledikleri için kendileri ile mücadele etmek ve onlara karşı muvaffak olmak kolaydı. İşte Peygamber'in (s) muvaffak olmasının sebebi budur.
242
+ Ben, tarihi ve sosyolojik esaslara göre konuşuyorum, gaybi sebepleri ne ben bilebilirim ne de başkası. Hz. Ali bütün bu şirk unsurlarıyla savaşıyordu, fakat bu unsurlar bir örtü altında gizliydi.
243
+ Bu örtü, şirk muhafızlarının yüzündeki tevhid perdesiydi. Hz. Ali'nin kendilerine kılıç çektiği Kureyşliler, putların değil Ka'be'nin muhafızları idiler. Onlar mızraklarının ucuna muallakat-ı seb'ayı değil Kur'an'ı takıyorlardı. Böyleleri ile mücadele etmek daha zordur. Bu dönemde şirk ne yapmaktadır? Cihada gitmekte, İslâmi fetihler yapmakta, mihrabı vardır, görkemli camiler yapmakta, bu camilerde cemaatle namaz kılmakta, Kur'an okumakta, bütün âlimler ve kadılar kendisine tabidir ve Peygamber (s) dinin savunucusu ve yücelteni olarak görünmektedir. Oysa içi şirktir.
244
+ Dost görünüşlü bir düşman olan, takva ve tevhid elbisesi içindeki şirk ile mücadele etmek zordur; hem de o kadar zordur ki, Hz. Ali bile ona karşı mağlup olmuştur. Tarihteki bütün toplumsal olayların ve ıslahat hareketlerinin liderleri,
245
+ milletlerine saldıran yabancı ve belirgin düşmanları kolaylıkla etkisiz hale getirebilmişlerdir. Bu liderler, büyük güçlerine rağmen yabancı düşmanları yok edebilmişlerdir. Ancak dünyanın en büyük ordularını mağlup eden bu kahramanlar, milleti perişan eden ve sıkıntıya düşüren ve sayısı oldukça az olan dâhili düşmana yenilmişlerdir. Nitekim S. Radhakrishnanl38) şöyle demiştir: “Kaba kuvvet ve hile, takva elbisesi giydiğinde, dünyanın en büyük gücü ve faciası meydana gelmiş demektir.”
246
+ Öyleyse şirk dininden söz ettiğimizde, aklımıza geçmişte yaşanmış olan ve hayvan, ağaç ya da heykellere tapınmaktan ibaret olan şirk gelmemeli. Nasıl olsa, İbrahim (a.s) ve Peygamber (s) söz konusu şirk dinini yok etmişlerdir de dememeliyiz. Zira şirk, mele” ve mütrefinin istismar ettiği her türlü dini duyarlılık demektir. Bu sebeplerden dolayıdır ki, 17 ve 18. yüzyılın ve yeniçağın aydınları, bu dine karşı çıkmış ve muhalefet etmiştir. İnsanların, perişanlık, sıkıntı, zillet, zaaf içinde ve iradesiz bir şekilde yaşamalarına neden olan ve halkı ırklara, gruplara ve tabakalara ayıran yapıyı muhafaza eden bu dinle mücadele etmişlerdir. Onlar: “Bu din, insanların ilerlemesine, özgürlüğüne ve birlikteliğine karşıdır.” şeklindeki görüşlerinde haklıydılar. Dinin kenara itilmesinden sonra göz kamaştıran gelişmelerin vuku bulması, Avrupalı aydınların bu görüşünü te'yid eden bir tecrübedir.
247
+ Özgürlük isteyen bu aydınlar, insanın, hurafelerden, zilletten ve din adıyla ortaya çıkmış olan bu zehirli uyuşturucudan kurtulması için mücadele ediyorlardı. (39) Ancak bu aydınlar, biz din mensupları gibi, bir noktada yanılıyorlardı.
248
+ AYDINLARIN YANILGISI
249
+ Aydınların yanılgısı şuydu: Tarihte yer alan her tür ibadeti, mabedi, cihadı, kutsal savaşları, haçlı savaşlarını ve İslâm cihadını ayrım yapmadan hepsini din adı altında değerlendirdiler. Zaman zaman bizim de böyle yaptığımız vakidir.
250
+ Hâlbuki daha öncede söylediğim gibi İslâm, inkılabi bir dindir ve şirki kabul etmemektedir.
251
+ Gelecekte de hak dinin hâkim olacağını ve dini liderin (veliyu'd-din) geleceğini öngörmektedir.
252
+ Açık şirk şeklinde olsun, tevhid perdesi altında olsun Doğuda ve Batıda halklara musallat olanların hiçbirini benimsememekte ve onları şirk olarak nitelendirmektedir. Bunları yok etmek için peygamberler gönderen din ise peygamberler gibi diğer insanları, özellikle de aydınları sorumlu tutmakta ve onlardan peygamberlerin davasının devam ettirilmesini istemektedir. Peygamberimiz (s)
253
+ “Ümmetimin âlimleri, Beni İsrail'in peygamberlerinden daha üstündür.” (40lbuyurmaktadır. Yani peygamberliğin nihayete ermesinden sonra peygamberlik misyonunu sürdürmek alimlerin görevidir.
254
+ ÂLİMLERİN VE AYDINLARIN GÖREVİ
255
+ Âlimlerin görevi, tarihte hayata hâkim olmamış olan dini, hayata geçirmek ve yerleştirmek için mücadele etmektir. İnsanlık, artık bu olgunluğa erişmiş, vicdani ve dini özgürlüğünü elde etmiş
256
+ olmalıdır. Dolayısıyla da tevhidin, tağutperestlikten farklı olduğu ve şirkin tevhid örtüsünü yalandan yüzüne örttüğü anlaşılmalı ve bu örtü paramparça edilmelidir. Ta ki insanlar, materyalistlerin doğru bir şekilde ifade ettikleri gibi, cehalet ve korku ürünü olan dinden kurtulup gerçek bir dine kavuşsunlar. Kur'an defalarca, denizde yolculuk yaparken gemi bozulduğu için korkudan Allah'a sığınan ve tehlike geçtiğinde de bunu unutan kimselerden söz etmekte ve onları eleştirmektedir. İşte bu, korkudan doğan bir dindir.
257
+ 19. yüzyıldaki materyalistlerin doğru bir şekilde ifade ettiği gibi, tabii tehlikelerden korkup da dine sığınanlar da bu şekilde korku ürünü olan bir dine sahiptirler. Kur'an, onlardan çok önce korku dininin mensuplarından söz etmiş ve bu korkudan türemiş olan muamele biçimini ve toplumsal sınıflaşmayı eleştirmiştir. Bu sınıflaşmayı kim icad etti? Bu sınıflaşmayı, “Yiyecek bir lokma ekmeğin ve besinin yoksa, dayan, senin için cennette sofralar hazırlanacaktır!” diyenler icad etmişlerdir. Sınıflı toplumların ürünü olan bu din, hak dine bir veba gibi nüfuz etmektedir.
258
+ Hz. Ali şirk dinini "ticaret dini” ve 'korku dini” olarak nitelendirmektedir. Oysa hak dindeki kulluk, özgürlükten, yüce kudret sevgisinden, adalet arzusundan, insani amaçlardan, birlikten, adaletin dünyada sürekli hale getirilmesinden ve bütün kötülüklerin yok edilmesinden doğmaktadır. İşte bu din, şirk dinine düşmandır.
259
+ Şirk dini ise, tarih boyunca fakirliği, esareti ve köleliği savunmuş ve halkları mele', mütref ve zorbaların çıkarları için susturup uyuşturmuştur. Bu din şöyle der: “Allah, şunun bunun açlığı, susuzluğu, ekmeği, yağı ve peyniri ile uğraşmaz.” Bu din, dini duyguları kullanmak suretiyle insanları uyuşturarak, toplumsal hayattan soyutlayarak veya dünya malını kötüleyerek her şeyi eline geçirmeye çalışır.
260
+ Kur'an her zaman, toplum üzerinde baskı kuran, insanların iradelerine ipotek koyan ve onların bedensel ve zihinsel güçlerini zorbaların menfaati için kullanan kimseleri; fakirliği, açlığı ve hastalığı dini zühdün gereği olarak göstermek suretiyle dini istismar eden zihniyeti ve ahiret adına insanları dünya hayatından ve toplumsal sorumluluktan alıkoyup münzevi bir hayat yaşamaya iten ve daha sonra da onların her şeyini temellük eden dini düşünce sahiplerini eleştirmektedir.
261
+ İnsanların dini duygularını kullanarak kendisine ve sömürgeci güçlere menfaat sağlayanların sembolü olan Bel'am-i Ba'ur konusuna gelindiğinde ise Kur'an, hiçbir yerde kullanmadığı şu ifadeyi kullanmaktadır: “O, köpeğe benzer...”(41) Bu ifade ile Kur'an şunu kastetmektedir: Tarih boyunca zülüm, zillet, istismar, ayrımcılık ve cehalet böyle kimselerin çabalarıyla gerçekleşmiştir. İnsanların yeteneklerini körelten ve onları geri bırakanlar, büyük kahramanları ve yüce insanları öldürenler ve hak peygamberlerin bütün çalışmalarını akim bırakanlar böyle kimselerdir. Kur'an, lanetli şirk dininin tarihte yaptıklarını nefretle eleştirmek için bu ifadeyi kullanmıştır.
262
+ Sonuç olarak şunu söylemek istiyorum: Avrupa'daki aydınların ve özgürlükçülerin, Avrupa'yı bin yıl geri bırakan ve Hz. Isa kisvesi altında çalışan kilise ve orta çağ dinlerine karşı sürdürdükleri mücadele
263
+ ile
264
+ peygamberlerimizin
265
+ tarih
266
+ boyunca
267
+ sürdürdükleri
268
+ mücadele aynıdır.(42|)
269
+ Peygamberlerimiz her zaman, bu taşlaşmış, bozulmuş, insan ve insan hakları düşmanı olan dine karşı mücadele etmişlerdir; uyuşturucu ve aldatıcı şirk dininin putlarını ve bütün sembollerini yok etmek için çalışmışlardır. Bunu sürdürmek, her zaman hak dinin mensupları için bir görev olmuştur ve olacaktır.
270
+ Mademki peygamberlerimiz, tarihe hükmeden şirk dinine karşı mücadele etmişler, öyleyse biz de bu mücadeleyi sürdürmekle yükümlüyüz. Nitekim bu güne kadar mele, mütref ve onların uşaklarına karşı yapılan mücadeleler ve tarihin seyrinin değiştirilmesi için gösterilen çabalar tevhid dini adı altında gerçekleşmiştir. Bizim amacımız, geriye gitmek değil hak peygamberlerin yolunu takip etmektir. Zira onlar, halkın içinden çıkmış olan dolayısıyla da mele' ve mütrefi emrindeki din adamları ve prensler ya da ağalarla bir şekilde irtibatı olanların karşısında yer alan peygamberlerdi.
271
+ Bizim gibi, Avrupalı materyalist aydınların da, din hakkında anlamadıkları husus şudur: İmtiyazlı tabakaların ve sömürgecilerin dini olan şirk dinine ait her şeyi, mutlak manada bütün dine teşmil etmek. Bu yanlıştır, zira tarihte bir din değil pek çok din vardı. Buna benzer olarak Gurvitch de şöyle demektedir: “Büyük bir toplum yoktur, toplumlar vardır.”
272
+ Dolayısıyla her toplumu ayrı ayrı ele almak gerekir. Tarihte iki cephe ve iki saf mevcut olduğu gibi iki de din vardır: Biri, zulüm ve terakki, hakikat, adalet ve medeniyet düşmanlığı cephesidir. Bu cephe, dinsizlik cephesi değil hırsı ve sapkın arzuları gerçekleştirmek için insanlara musallat olan şirk dini cephesidir.
273
+ Diğer cephe ise hak din cephesidir. Hak din, karşı cepheyi ortadan kaldırmak için gelmiştir. Bazı yönlerden düşüncelerini desteklediğim Avrupalı aydınların bir hususta haksızlık yaptıklarını ve insafsızca yargıda bulunduklarını görüyorum. Tabakalar ve ırklar ayrımcılığına, feodal yapıya ve sömürgeciliğe dayanan Buda, Zerdüşt, Mezdek, Mani ve Yunan dinleri ve din adına dünyaya egemen olan güçler hakkındaki bütün değerlendirmeleri her iki cepheye de yani hem şirk dinine hem de hak dine teşmil etmişlerdir. Hâlbuki herkesten önce sıkıntı ve fakirlik ile tanışan, şirk dinine karşı koyan, bu uğurda hayatlarını kaybeden, zindanlarda zehirlenen ya da öldürülen ve şirk dininin güçleri tarafından kendileri ve takipçileri katliama uğrayan Allah ve hakikat peygamberlerinin dini olan çobanlık dini ile şirk dinini aynı değerlendirmeye tabi tutmak ilmi gerçeklere, aydın olmaya, ahlaka ve görünen gerçeklere aykırıdır. Zira tarih boyunca sadece peygamberler, “Sizin dininiz size, benim dinim bana!” diyerek şirk dininin karşısında durmuşlardır.
274
+ Aydınlar, neredesiniz? Bir konuda tercüme yoluyla değerlendirme yapılamaz. Avrupalının, kendi dini hakkındaki yargısı nasıldır? Avrupalı üç yüz yıl mücadele etti, çalıştı, düşündü, inceleme yaptı, ancak Hıristiyanlığın, Avrupa'nın başına nasıl bir bela getirdiğini anlayabildi. Avrupalılar din hakkında bir yargıda bulunuyor, biz de hemen kabul ediyoruz; bu, bir aydının tutumu olamaz, böyle yapan aydın olamaz.
275
+ Tarih boyunca, aç olan, aç kalsın, ekmeği elinden alınsın ve fakirlik var olup devam etsin diyen bir dini, Ebu Zer'in dini ile aynı tutabilir miyiz? O Ebü Zer ki, İslâm'ın parlak yüzüdür, bizzat Peygamber'in (s) terbiyesi ile yetişmiştir. Onun, ırk, sermaye ve kültür adına hiçbir şeyi yoktu; o, kâmil bir insan olmaktan başka hiçbir şeye sahip değildi. O, hak din tezgahının, kitabının ve okulunun ürünüydü. O şöyle
276
+ diyordu: “Evinde yiyeceği olmayıp da kılıcını alıp sokağa fırlamayana şaşarım!”
277
+ Sahibini söylemeden Avrupa'da bu sözü söylediğimde, bazıları bunun, Proudhon'al431 ait bir söz olduğunu düşündüler; çünkü Proudhon, sert konuşmasıyla bilinir. Onlara dedim ki, böyle bir söz söylemek Proudhon'un haddine değildir! Bazıları da Dostoyevski'nin bu sözü söylemiş olabileceğini düşündü. Zira Dostoyevski şöyle demiştir: “Bir yerde öldürme olayı varsa, olaya katılmayanların elleri de kana bulaşmış demektir.” Doğrudur!
278
+ Dikkat et bakalım, Ebü Zer ne diyor? Onun söylediğini din söylüyor, dine mensup olan biri değil.
279
+ Zaten Ebu Zer, dinin canlı şekliydi, başka bir şey değil. O, başka hiçbir etki altında kalmadı ve Fransız devrimini yapanlardan biri değil, Gıfar kabilesinin bir ferdiydi. O şöyle diyordu: “Evinde yiyeceği olmayıp da kılıcını alıp sokağa fırlamayana şaşarım!” O, fakirliğe neden olana ve sömürgecilere kılıç çekin demiyordu. Onun çağrısı, bütün toplumu hedef alan bir çağrıydı. O, toplumda yaşayan herkes, sömürgecilerden olmasa bile yaşanan açlıktan ve fakirlikten sorumludur, demek istiyordu. Zira bu durumun ortaya çıkmasında herkesin payı vardır.
280
+ Yani toplumdaki herkesin, aç kalmama neden olan sömürgecilere bir katkısı vardır! Herkes, benim açlığımdan sorumludur! Ebü Zer, Birleşmiş Milletler Teşkilatı'nın dediği gibi “Bir toplumun hakları, baskıyla gasp edilirse, o toplum haklarını almak için ayaklanabilir.” demiyor. Ebü Zer, hak sahibi ve aç olan kişi hakkını alsın ya da bütün insanlara kılıç çeksin, demiyor. O, aç kalıp da kılıcını çekmeyene şaşarım, diyor...
281
+ Öyleyse, insana ve insan hayatına bu gözle bakan bir dini, açlık olgusunun müsebbibi olan bir din ile aynı değerlendirmeye tabi tutmak insafsızlık, mutlak cahillik ve hem ağlatan hem de güldüren bir durum olmaz mı?
282
+ (1) Saffat, 95.
283
+ (21 Sâmiri: Sâmiri'nin mahiyeti hakkında tefsirlerde farklı görüşler yer almaktadır. Bazı müfessirlere göre Sâmiri kelimesi, Hz. Musa zamanındaki Beni İsrail'den bir kişinin adıdır. Ancak Sâmiri, sıradan bir kişi değildi; çevresinde bazı insanlar vardı ve onlar kendisine itaat ediyorlardı. (eş-
284
+ Şevkâni, Muhammed b. Ali, Fethu"'I-Kadir, Dâru"i-Fikr, Beyrut, trs.) İbn Abbas'tan yapılan bir rivayete göre Sâmiri'nin gerçek adı Musa olup ineğe tapan bir kavimdendi ve içinde kavminin ibadet sevgisi olduğu halde müslüman olduğunu söylüyordu. Diğer bir rivayette ise Sâmiri'nin Sâmira denilen bir yerden olduğu söylenmektedir. (İbn Kesir, Tefsiru”l- Kur'ani'l-Azim, Dâru"i-Fikr, Beyrut, 1401.)
285
+ Hıristiyan misyonerler ve Oryantalistler, Sâmiri kelimesinin, bir kişinin adı olarak Kur'an'da yer aldığı varsayımından hareketle Hz. Muhammed'in (s) bu ve benzeri konularda kulaktan dolma bilgilere sahip olduğunu, dolayısıyla da Kur'an'ın vahiy ürünü olamayacağını ileri sürerler. Zira onların kaynaklarına göre Sâmiri bir kişinin değil, bir kitlenin adıdır. İşte çağdaş müfessirlerden Mevdudi bu hususa dikkat çektikten sonra onlara şu şekilde cevap vermektedir: Sâmiri kelimesinin sonundaki “ye' harfi Sâmiri'nin, o kişinin asıl adı olmadığını göstermektedir. Çünkü Arapça'da bu harf, kişinin memleketi, kavmi ve akrabalarıyla olan ilgisini göstermek için kullanılır. Ayrıca baştaki 'el' belirlilik takısından da Sâmiri'nin, aynı kabile veya memlekete mensup birçok kişiden sadece biri olduğu anlaşılmaktadır. (Mevdudi, Ebü Ala, Tefhimu'l-Kur'an, lll, s. 235.)
286
+ (31 Bel'am-i Ba'ür: Hz. Musa zamanında yaşayan ve irtidad eden bir din adamı. “Onlara o herifin kıssasını da anlat ki, ona ayetlerimizi vermiştik, ama o, onlardan sıyrılıp çıktı, derken onu, şeytan arkası- na taktı da yolunu şaşırmışlardan oldu. Eğer dileseydik biz onu ayetlerle yüceltirdik, fakat o, yere alçaklığa saplandı ve hevasının peşine düştü. Artık onun hali, o köpeğin haline benzer ki, üzerine varsan da dilini uzatır solur, bıraksan da solur! İşte böyledir ayetlerimizi inkâr eden o kimselerin durumu; kıssayı kendilerine naklet, belki biraz düşünürler.” (A'raf, 175-176) ayetlerinin tefsirinde sadedinde ismi, çeşitli tefsir ve tarih kitaplarındageçmektedir. Bel'am-i Ba'ür, dünyevi çıkar ve hesaplar için Allah'ın dinini tahrif eden, kâfir yöneticilere yaranmak maksadıyla Allah'ın hükümlerini çiğneyen ve asıl gayesinden saptıran kimseleri temsil etmektedir. (Şamil İslâm Ansiklopedisi, Belam maddesi, cilt 1.)
287
+ (4) Ferisiler: İkinci Tapınak döneminin sonlarında (M.Ö. 515- M.S. 70) Filistin'de Museviler arasında ortaya çıkan dini gurup. Hz. İsa zamanındaki en popüler akım olan Ferisilik, dinsel kaynak olarak Eski Ahit'in yanı sıra Sözlü Torah olarak adlandırılan sözlü geleneği de kabul ediyordu. Yeni Ahit'e göre Ferisiler, Hz. İsa'ya en çok muhalefet edenlerdi. Hz. İsa'nın, bunlara karşı yaptığı birçok tenkit ve konuşma Yeni Ahit metinlerinde yer alır. (Gündüz, Şinasi, Din ve İnanç Sözlüğü, s. 129, Vadi Yayınları, 1998, Ankara; Ana Britannica Ansiklopedisi, Ferisiler maddesi, c. 26, İstanbul, 1993, VIl, s. 520)
288
+ 151 Bu ifadeyi kullanmamın nedeni, herkes tarafından daha iyi anlaşılmasıdır. (Müellif)
289
+ (61 Tağut, azmak, azıtmak ve haddi aşmak anlamlarına gelen tuğyan kelimesinden türemiştir. Terim olarak ise zorla veya isteğe bağlı olarak kendisine ibadet edilen şey demektir. Bu özelliğe sahip olan her şey tağuttur. Bu bir put olabileceği
290
+ gibi bir insan da olabilir. Açık tağut olabileceği gibi gizli tağut da olabilir. Aslında put gibi cansız unsurlar, doğrudan tağut olamazlar; zira onların Allah'a karşı bir azgınlıkta bulunma imkânları yoktur. Dolayısıyla insanlar dışındaki varlıklar olsa olsa tağut için bir araç ya da bir sembol olabilir. (Yazır, Elmalılı Hamdi, Hak Dini Kur'an Dili, Il, 869-870) Allah'a isyan üç derecede olabilir: 1- Allah'ın kulu olduğunu kabul edip pratikte Onun emirlerinin aksini yapana fâsık denir. 2- Allah ile irtibatını koparıp başka birine bağlanan kişiye kafir denir. 3-Allah'a isyan edip Onun kullarını kendine boyun eğmeye zorlayan kişiye ise tağut denir. (Mevdüdi, |, s. 202.)
291
+ (71 İslâm, bütün hak dinlerin adıdır. (Müellif)
292
+ (181l Burada put kelimesinden, hokkabazlık, yalancılık, cehalet ve zulüm üzerine inşa edilmiş olan ve insanı kulluğa davet eden her şey şeklindeki en genel mana kastedilmektedir. (Müellif)
293
+ (912. Bakara, 256, 4. Nisa, 60.
294
+ (101) Necm suresi 19. Ayette geçen bu ifadeler, müşrik Arapların taptıkları putlardan iki tanesinin adlarıdır. Bir sonraki ayette Menât adlı puttan söz edildiği gibi Nuh suresi 23. Ayette de Yeğüs, Ye'ük ve Nesr adlı başka putlardan söz edilmektedir.
295
+ (11) Cebriye: Zorlamak manasındaki cebr kökünden gelen ve bu manaya nisbet edilen kişiler için kullanılan bir ifadedir. İslâm düşünce tarihine Cebriye olarak geçen ekolün ana düşüncesi şudur: İnsanın fiilleri, insan kaynaklı değil Allah kaynaklıdır. İnsanın iş yapma kudreti olmadığı için işlerini kendi iradesi ile değil, mecburen yapar. Diğer varlıklarda görülen durumları Allah (c) yarattığı gibi insanın fiillerini de
296
+ O (c) yaratır. Fiillerin insana nisbeti, 'Ağaç meyve verdi." “Taş yuvarlandı.'
297
+ ve 'Güneş battı.' cümlelerindeki işlerin eşyaya nisbeti gibi mecazi bir nisbettir. İnsan sevap kazanmaya veya ceza görmeye mecburdur. (Ebü Zehra, Muhammed, İslâm'da Siyasi ve İtikadi Mezhepler Tarihi, s.126, Çev: Hasan Karakaya - Kerim Aytekin, Hisar Yayınevi, İstanbul, 1983.)
298
+ (12) Emri bi'l-ma'rüf ve nehy-i ani'l-münker, özü tevhid olan dini veya dünyevi bir hayra ve faydaya insanları davet etmek demektir. Ma'rüf, İslâm'a uygun olan, münker ise İslâm'a muhalif olan şeydir.
299
+ (Yazır, ll, s. 1155)
300
+ (131 Allah'ın affının her şeyi kapsadığına inanan, inkârdan başka bütün günahları affedeceğine hüküm veren, küfür durumunda itaatin faydası olmadığı gibi iman durumunda da günahın bir zararının olmayacağına inanan bir inanç ekolüdür. (Ebü Zehra, s. 152.) Bu ekole mensup olanlar, amellerle imanı tam olarak birbirinden ayırdıkları için idarecilerin hatalı tasarruflarını da kabullenmişlerdir.
301
+ (Watt Montgomery, İslâm Düşüncesinin Teşekkül Devri, Çev: Ethem Ruhi Fığlalı, Birleşik Yayıncılık, Istanbul, 1998.)
302
+ (14) Totem: Bazı kültürlerde klanın ya da kabilenin atası sayılan veya klan ya da kabileyle soy birliğine sahip olduğu düşünülen hayvanlar, o kabilenin totemi olarak kabul edilir. Totem hayvanın öldürülmesi ve yenilmesi yasaktır; ancak yılın belirli zamanlarında bu hayvan kesilerek yenilir.
303
+ (Şinasi Gündüz s. 371)
304
+ (15) Tabu: Çekinilmesi ve uzak durulması gereken kutsal ve tehlikeli şey anlamındadır. Tabu sayılan her hangi bir şeye
305
+ özel bir takım hazırlıklar yapmadan dokunmak ya da onunla ilişkiye geçmek son derece tehlikeli sayılır. Bu kurala riayet edilmediği takdirde ilgili nesne ya da varlıkta bulunan tehlikeli gücün, temas kuran kişiye geçeceği ve ona zarar vereceği düşünülür. (Şinasi Gündüz s. 356)
306
+ (16) Çeşitli kabile dinlerince nesneler ve insanlarda bulunabileceği düşünülen elektrik enerjisine benzer bir gizemli güç için kullanılan Polinezya dilindeki bir terim. (Şinasi Gündüz s. 244)
307
+ (117) 'Ev halkı' anlamına gelen Ehi-i beyt terkibi, ev sahibi ile onun eşini, çocuklarını, torunlarını ve yakın akrabalarını kapsamına alır. Cahiliye devri Arap toplumunda kabilenin hâkim ailesini ifade eden Ehl-i beyt tabiri, İslâmi dönemden itibaren günümüze kadar sadece Hz. Peygamber'in (s) ailesi ve soyu için kullanılan bir terim olmuştur. Ehl-i beyt tabirinin kapsamına kimlerin girdiği Şia ve Ehl-i Sünnet âlimleri arasında baştan beri tartışma konusu olmuştur. Ehi-i Sünnete göre, Peygamberimizin (s) eşleri, bütün çocukları, bütün torunları, amcaları, onların çocukları ve Beni Hâşim soyundan olanlar Ehl-i beyt tabirinin içinde yer alan kimselerdir. Şiaya göre ise Ehl-i beyt, Ali, Fatıma, Hasan, Hüseyin ve diğer dokuz imamdan ibarettir. (TDVİA, Ehl-i beyt maddesi, cilt 10.)
308
+ (181 Bu genelleme, genellemelerin çoğunda olduğu gibi içinde bazı sorunlar ve riskler barındırmaktadır. Zira bu kuralı sosyal ve ekonomik içerikli ayetlere tam olarak uygulama imkânı yoktur. Ancak bazı ayetler için böyle bir şey söylenebilir. Mesela bu kuralı, yukarıdaki örneklerde olduğu gibi bu ayetlere uygulamak mümkün değildir: “Eğer Allah insanların (en-nâs) bir kısmını bir kısmı ile defetmeseydi manastırlar, kiliseler, havralar ve içinde Allah'ın adı çok anılan mescitler elbette yıkılırdı.” (22. Hac, 40) ve “Kim, bir cana kıymayan veya yeryüzünde
309
+ bozgunculuk çıkarmayan bir nefsi öldürürse, bütün insanları (en-nâs) öldürmüş gibi olur. Kim de bir nefsin yaşamasına sebep olursa, bütün insanları (en-nâs) yaşatmış gibi olur” (5. Maide, 32).
310
+ (19) Hadid, 11.
311
+ (1201 Mele": Toplandıkları zaman göz ve yer dolduracak kalabalıkta olan topluluk anlamında olup bir toplumda söz sahibi olan ve toplumun ileri gelenleri için kullanılan bir ifadedir. (Yazır, Il, s. 827.) Mele' kelimesi, her ne kadar Kur'an'ı Kerim'de sarihi bir şekilde olumsuz bir içerikle kullanılmamışsa da, geçtiği hemen her yerde kafirler topluluğunun ileri gelenleri olarak kullanıldığından böyle bir içeriğe bürünmüştür. Yazarın, bu ifadeyi olumsuz bir içerikle kullanması da bundan ötürü olmalıdır.
312
+ Mütref: Sahip olduğu zenginlik ve bolluktan dolayı şımarıp ömrünü bayağı arzularla heba eden kimse demektir. (eş- Şevkâni, Muhammed b. Ali, Fethu"'I-Kadir, Il, s. 534, Daru'l- Fikr, Beyrut, trs.) Bir ülkenin helak edilmesinde mütrefinin nasıl bir rol aldığını Allah (c) şöyle açıklamaktadır: “Biz bir ülkeyi helak etmek istediğimiz zaman, oranın şımarık varlıklılarına emrederiz, onlar itaat etmeyip orada kötülük işlerler. Böylece, o ülke helaka müstahak olur, biz de onu yerle bir ederiz.” (İsra, 16) “Allah (c), bir ülkeyi helak etmez, o ülke helak olmayı hak eder. Sıradan insanlar, toplumun önderleri ve toplumun çökmesinin gerçek sorumluları olan zenginlere uyarlar. Önce zenginler, isyan, fesat, zulüm ve kötülükler işlerler, daha sonra da halk onlara uyar ve Allah'ın azabını üzerlerine çekerler.” (Mevdudi, Ill, s. 99)
313
+ (121) Hinduizmin en eski ve en önemli kutsal literatürü. Bu dinsel literatürün on bin yıllık bir tarihi olduğuna inanılır. Vedalar, uzun zaman ezber yoluyla nesilden nesile aktarılmıştır. Veda, kutsal bilgi anlamına gelir. Genellikle
314
+ tanrılara methiyeyi konu alan ilahilerden oluşur. (Gündüz, s. 383)
315
+ (221 Lao Tse/Lao Tze: M.Ö. 604 yılında ortaya çıktığı sanılan Taoizm'in kurucusu. Chou'da imparatorluk arşivinde çalışan ve emekli olan Lao'nun mitolojik bir figür de olduğu düşünülür.
316
+ Taoizm'in kutsal kitabı Tao Te Ching (Yol ve Onun Gücü Klasiği) ona atfedilir. Yaşamının sonlarına doğru Lao'nun, bir öküz üzerinde dağlara doğru gittiğine ve orada kaybolduğuna inanılır.
317
+ (Gündüz,s. 233.)
318
+ (123) Tarihten kastımız, tarihin ıstılahi anlamı olan insan toplumunun yaşam macerası ve onun başından geçenlerdir. (Müellif)
319
+ (24) Mutlak zaman anlamına gelen dehr kelimesine nisbet olan dehri kavramı, İslâm dünyasında genel olarak materyalist ve ateist düşünce akımları için kullanılır. İslâm'dan önce bazı Cahiliye Arap larının da bu düşünceye sahip olduğunu Kur'an şöyle ifade etmektedir: “Hem dediler ki: Hayat ancak bizim şu dünya hayatımızdan ibarettir. Ölürüz ve yaşarız. Bizi ancak zaman (dehr) yok eder!
320
+ Halbuki bu hususta bir bilgileri yoktur. Onlar sadece zannederler.” (Câsiye, 24) Ayette geçen dehr kelimesinin dehri şeklinde kullanımı ise sonraki bir gelişmedir. (TDVİA, Dehriyye mad, cilt 9.) Dehriler, bütün metafizik gerçekleri inkar ederler. Dinleri ve peygamberleri lüzumsuz görürler.
321
+ Bundan dolayı da kendilerine zenadıka adı verilmiştir. (Şamil Islâm Ansiklopedisi, Zındık maddesi, cilt 6.)
322
+ (251 Kafir, dini olan insandır, dinsiz insan değildir. İbrahim (a.s), Musa (a.s) ve İsa (a.s) ile savaşanlar, din muhafızları idiler; dini duyguları olmayan kimseler değillerdi ve din adına yeni dinin peygamberiyle savaşıyorlardı. (Müellif)
323
+ (261 Kâfirün, 1. (1271 Kâfirün, 3. (1281 Kâfirün, 6.
324
+ (1291 Kur'an'da böyle bir ifade bulunmamaktadır. Buna en yakın Kur'an ifadesi “Mülk Allah'ındır.”
325
+ (Zümer, 6;.Teğabun, 1) ifadesidir. Müellifin, Kur'an'da bulunmayan bir ibarenin Kur'an'da varmış
326
+ gibi dile getirmesi, bir duyarlılık eksikliğini gösterse de kötü niyete hamledilmemelidir. Bu, aşikar bir gerçek olduğu için üzerinde durmaya değer görmüyoruz.-Çev.notu)
327
+ (1301 Bu hadis, kaynaklarda “Varlıklar, Allah'ın ailesidir.” şeklinde geçmektedir. Taberâni, Ebü Nu'aym ve Beyhaki gibi muhaddislerin naklettiği bu hadisi, en-Nevevi, senedinden dolayı zayıf olarak kabul etmektedir. Bununla birlikte bu hadisin, mana bakımından genel olarak kabul edildiğini görüyoruz. Bazı âlimler, bu hadisteki ıyâl ifadesinin mecaz olduğunu düşünüp hadisi şu şekilde yorumlamışlar: İnsanlar, kendi ailelerinin geçimlerini sağladıkları gibi Allah da bütün varlıkların rızkını vererek onların hayatlarını idame etmesini sağlamaktadır. Bazıları da, hadisteki ıyâl kelimesinin fakir ve muhtaç anlamına geldiğinden hareketle hadisi şu şekilde anlamlandırmışlardır: Bütün varlıklar, Allah'a muhtaçtır. (el- Aclüni, İsmail b. Muhammed, Keşfu'l-Hafâ”, 1, s. 457-458, Müessesetu'r-Risâle, 1405, Beyrut.)
328
+ (131) Rab, sahip demektir, yaratıcı demek değildir. (Müellif)
329
+ 1321'Allah ve insan dini! başlangıçtan günümüze kadar, peygamberlerin, insanları kendisine çağırdığı dindir. Ancak tarihi süreçte söz sahibi olan muhalif güçler, bu dinin toplumda hayat bulmasına imkân vermemişlerdir. Bunun için, insanlar, her bakımdan öyle güce, şuura ve fikri olgunluğa ulaşmalılar ki, bu dini topluma hâkim kılabilsinler ve şirk dinini ortadan kaldırabilsinler. İnsanlar, hiçbir zaman böyle bir olgunluğa ulaşmadıkları için, tarihin ve toplumun dizginlerini mele've mütrefinlerin elinden alıp kendi kaderlerini tayin edememişlerdir. Bundan dolayı da İbrahimi din, hiçbir zaman istediği gibi bir toplum oluşturamamıştır. Yiğit insanlara düşen de böyle bir toplum oluşturmaktır. (Müellif)
330
+ (331 Firdevsi (ö. 1020): İran'ın milli destanı Şehnâme'nin müellifi. Başlangıçta diğer şairler gibi gazel ve kasideler yazan Firdevsi, bir süre sonra döneminin de etkisinde kalarak eski İran tarihine büyük bir ilgi duydu. O dönemin eserlerinden faydalanmak için babasından veya Zerdüşt rahiplerden Pehlevice öğrendi. Şiir yazacak kadar da iyi Arapça biliyordu. (TDVİA, Firdevsi maddesi, c. 13)
331
+ (134) Ahura Mazda: Mecusilikte, her şeyi bilen, yaratan yüce tanrı anlamındadır. Ahura 'ilahi varlık”, Mazda ise 'hikmet ve aydınlanma' demektir. Ahura Mazda, gerçeğin, kutsalın, iyiliğin ve sağlığın yaratıcısıdır. Ondan kötülük kaynaklanmaz; dolayısıyla o, Ehrimen'in karşısında yer alır. Ahura Mazda'nın etrafında kötülüğe karşı savaşan sayısız ilahi varlık bulunduğu kabul edilir. İnanışa göre Ahura Mazda, sonunda Ehrimen'i yenecek ve böylelikle iradesi tamamıyla gerçekleşmiş olacaktır.
332
+ (Gündüz, Şinasi, Din ve İnanç Sözlüğü, s. 22, Vadi Yayınları, Ankara, 1998.)
333
+ (1351 Ehrimen: Mecusiliğin kötülük ve eksiklik ruhu, tanrı Ahura Mazda'nin rakibi ve düşmanı.
334
+ Ehrimen'in hayata karşı ölümü yarattığına; kötü varlıkları, sürüngenleri, vahşi hayvanları, kötü inancı, bozgunculuğu vb. bütün kötü unsurları yönlendirdiğine ve bunları iyi ve güzel olanların üzerine saldığına inanılır. (Gündüz, s. 22.)
335
+ (361 Zerdüşt: Zerdüştlüğün kurucusu olan kişidir. M.Ö. 628- 551 yılları arasında yaşadığı söylenir.
336
+ Kendisine atfedilen Avesta kitabının Gatalar kısmında tek tanrıcı görüş ve düşünceleriyle dikkat çeker. İran'da halkın çok tanrıcılığı terk etmesi ve tek yüce tanrıya tazimde bulunması için yoğun çaba harcamıştır. (Gündüz, s. 404) Zerdüşt döneminden sonra ise bu tek tanrıcı inanışlardan eski İran'ın çok tanrıcı dinlerine doğru bir hareket olmuştur. Zerdüştlük, iyiliğin kaynağı Ahura Mazda ve kötülüğün kaynağı Ehrimen şeklindeki düalist bir düşünceye dayanmaktadır. (Gündüz, s. 252) Zerdüşt, Hz. Musa ve Hz. İsa gibi gerçek bir peygamber olarak değerlendirenler de vardır. (Faruki, İsamil R., Tevhid, s. 44, çev. Dilaver Yardım, İnsan Yayınları, 1987, İstanbul.)
337
+ (371İzed ve Hudâ adlarındaki antik İran tanrıları, İranlılar tarafında Eniran ile savaşıyorlardı. Bunun anlamı şudur: Kötü ve pis olan Eniran'a karşı sürdürülen savaşta evrenin tanrıları bile İran'ın üstün ırkının yanında yer alıyorlardı. Eniran ise İranlı değildi. Görüyoruz ki, burada da din, bu tür yollarla ırki ve sınıfsal statükoyu muhafaza etmiştir. Zaten bu görevi her zaman din yapmıştır. (Müellif)
338
+ (13815. Radhakrishnan (1888-1975): 1962-67 yılları arasında Hindistan cumhurbaşkanı olan Hintli bilim ve devlet adamı. Radhakrishnan, Doğu dinleri ve ahlakı üzerine yaptığı
339
+ çalışmalarıyla tanınmaktadır. (Ana Britannica, Radhakrishnan maddesi, c. 26.)
340
+ (1391 Tarih boyunca bütün peygamberler, bu şirk dinine karşı mağlup olmuşlardır. Bir gerçek vardır ki, peygamberler dışında şirk dini ile mücadele eden olmamıştır. (Müellif)
341
+ (401 Hadis kaynaklarında böyle bir ifade geçmemektedir. Buna benzer olarak hadis kaynaklarında şöyle bir ifade yer almaktadır: “Ümmetimin âlimleri, Beni İsrail'in peygamberleri gibidir.” Ancak bu haliyle bile hemen hemen bütün alimler, bunu aslı olmayan bir söz olarak kabul etmişlerdir. Bunların yerine “Peygamberler, dinar ya da dirhem değil, ilim miras bırakırlar.” hadisi daha kabule şayan olarak görülmüştür. (El-Aclüni, Il, s. 83.)
342
+ (41) A'raf, 176.
343
+ (421 Elbette ki, onların vardıkları sonuçların tümünün doğru olduğunu söylemek istemiyorum.
344
+ (Müellif)
345
+ (43) Proudhon, Pierre-Joseph (1809-1865): Fransız radikal siyaset kuramcısı ve gazeteci. Geliştirdiği görüşler, anarşist kuramın temelini oluşturmuştur. “Mülkiyet hırsızlıktır!” sözünde olduğu gibi sert ve dikkat çekici görüşleriyle tanınmıştır. (Ana Britannica, Proudhon maddesi, c. 26.)
dataset_parts/txt/Ali Şeriati - Dinler Tarihi_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Allen Carr - Sigarayı Bırakmanın Kolay Yolu_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Alphonse Daudet - Degirmenimden Mektuplar_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Alphonse Daudet - Pazartesi Öyküleri II_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Alphonse Daudet - Pazartesi Öyküleri I_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Amin Maalouf - Doğunun Limanları_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Amin Maalouf - Ölümcül Kimlikler_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Amin Maalouf - Semerkant_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Anadolu Medeniyetleri_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Anatole France - Thais_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Andersen - Secme Masallar I_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Andre Breton-NADJA_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Andre Clot - Muhteşem Süleyman_hocr_searchtext.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/Sentence-Boundary-Train.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/txt/hayvan çiftliği.txt ADDED
The diff for this file is too large to render. See raw diff
 
dataset_parts/yemek_tagged/part_01.txt ADDED
The diff for this file is too large to render. See raw diff
 
kaira_tokenizer_forced.vocab ADDED
The diff for this file is too large to render. See raw diff
 
komutlar.sh ADDED
@@ -0,0 +1,38 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # Sürücü
2
+ ubuntu-drivers devices
3
+ sudo ubuntu-drivers autoinstall
4
+ sudo reboot
5
+
6
+ # CUDA Toolkit 12.1 (Ubuntu 22.04 örneği)
7
+ wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb
8
+ sudo dpkg -i cuda-keyring_1.1-1_all.deb
9
+ sudo apt-get update
10
+ sudo apt-get -y install cuda-toolkit-12-1
11
+
12
+ # Ortam değişkenleri
13
+ echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
14
+ echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
15
+ source ~/.bashrc
16
+
17
+ # Yardımcılar
18
+ sudo apt-get -y install python3 python3-venv python3-dev \
19
+ build-essential git wget curl tmux htop nvtop
20
+
21
+ # Kontrol
22
+ nvcc --version
23
+ nvidia-smi
24
+
25
+ python3 -m venv venv
26
+ source venv/bin/activate
27
+ python -m pip install --upgrade pip
28
+
29
+ # PyTorch (CUDA 12.1 derlemesi)
30
+ pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
31
+
32
+ # Doğrulama
33
+ python - << 'PY'
34
+ import torch
35
+ print("cuda?", torch.cuda.is_available(), "gpus=", torch.cuda.device_count())
36
+ for i in range(torch.cuda.device_count()):
37
+ print(i, torch.cuda.get_device_name(i))
38
+ PY
merged_vocab.vocab ADDED
The diff for this file is too large to render. See raw diff
 
pretreaning2048.py ADDED
@@ -0,0 +1,900 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+
2
+
3
+ #!/usr/bin/env python3
4
+ # -*- coding: utf-8 -*-
5
+ """
6
+ KAIRA — Lightweight pretraining script (decoder-only, GPT-2 style) for M1 8GB.
7
+
8
+ • Uses our SentencePiece tokenizer (.model) directly — no HF tokenizer needed.
9
+ • Packs text into fixed-length blocks (no padding except possibly last block).
10
+ • Works on CPU or Apple MPS (Metal) if available.
11
+
12
+ Quick start (from project root):
13
+ python motorlar/pretraning.kaira.py \
14
+ --sp_model models/kaira_tokenizer_forced.model \
15
+ --data_glob "dataset_parts/**/*.txt" \
16
+ --save_dir models/pretrain_runs/kaira_gpt2_small \
17
+ --block_size 1024 --batch_size 6 --accum 8 --max_steps 3000 --lr 3e-4
18
+
19
+ Tip: Start small (max_steps=300–1000) to validate, then extend.
20
+ """
21
+
22
+ import os
23
+ import re
24
+ import sys
25
+ import glob
26
+ import math
27
+ import time
28
+ import json
29
+ import random
30
+ from datetime import datetime
31
+ import argparse
32
+ from dataclasses import dataclass
33
+ from typing import List, Iterator
34
+
35
+ # ----------------------------
36
+ # Progress bar (tqdm) with safe fallback
37
+ # ----------------------------
38
+ try:
39
+ from tqdm import tqdm as _tqdm
40
+ def get_tqdm(disable=False, **kwargs):
41
+ return _tqdm(disable=disable, **kwargs)
42
+ except Exception:
43
+ class _DummyTQDM:
44
+ def __init__(self, *a, **k): pass
45
+ def update(self, *a, **k): pass
46
+ def set_postfix(self, *a, **k): pass
47
+ def close(self): pass
48
+ def get_tqdm(disable=False, **kwargs):
49
+ return _DummyTQDM()
50
+
51
+ import torch
52
+ from torch import nn
53
+ from torch.utils.data import IterableDataset, DataLoader
54
+
55
+ try:
56
+ import sentencepiece as spm
57
+ except Exception as e:
58
+ print("[ERR] sentencepiece import failed:", e)
59
+ sys.exit(2)
60
+
61
+ try:
62
+ from transformers import GPT2Config, GPT2LMHeadModel, get_cosine_schedule_with_warmup
63
+ except Exception as e:
64
+ print("[ERR] transformers import failed. Install: pip install transformers")
65
+ raise
66
+
67
+ # Optional HF Auto classes for teacher text generation (4-bit/8-bit)
68
+ try:
69
+ from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
70
+ _HAVE_AUTO_HF = True
71
+ except Exception:
72
+ _HAVE_AUTO_HF = False
73
+
74
+ # ----------------------------
75
+ # Utils
76
+ # ----------------------------
77
+
78
+ def set_seed(seed: int = 42):
79
+ random.seed(seed)
80
+ torch.manual_seed(seed)
81
+ torch.cuda.manual_seed_all(seed)
82
+ os.environ["PYTHONHASHSEED"] = str(seed)
83
+
84
+
85
+ def detect_device():
86
+ if torch.cuda.is_available():
87
+ return torch.device("cuda")
88
+ if torch.backends.mps.is_available():
89
+ return torch.device("mps")
90
+ return torch.device("cpu")
91
+
92
+
93
+ # ----------------------------
94
+ # Dataset — SP packer
95
+ # ----------------------------
96
+ @dataclass
97
+ class SPOptions:
98
+ add_bos: bool = True
99
+ add_eos: bool = True
100
+ sampling: bool = True
101
+ nbest_size: int = -1 # -1 = sample from full
102
+ alpha: float = 0.1
103
+ no_sampling_over: int = 1000 # disable sampling for segments longer than this many chars (0=always sample)
104
+ verbose: bool = False
105
+
106
+
107
+ class PackedSpDataset(IterableDataset):
108
+ """Streams multiple .txt files, tokenizes with SentencePiece and packs into fixed blocks."""
109
+ def __init__(self, files: List[str], sp: spm.SentencePieceProcessor, block_size: int,
110
+ bos_id: int, eos_id: int, pad_id: int, opts: SPOptions,
111
+ max_line_chars: int = 1800, drop_last: bool = False,
112
+ verbose: bool = False, scan_log_every: int = 50000, total_files: int = 0):
113
+ self.files = files
114
+ self.sp = sp
115
+ self.block = block_size
116
+ self.bos_id = bos_id
117
+ self.eos_id = eos_id
118
+ self.pad_id = pad_id
119
+ self.opts = opts
120
+ self.drop_last = drop_last
121
+ self.max_line_chars = max_line_chars
122
+ self.verbose = verbose or getattr(self.opts, "verbose", False)
123
+ self.scan_log_every = scan_log_every
124
+ self.total_files = total_files if total_files else len(files)
125
+
126
+ def _encode(self, text: str) -> List[int]:
127
+ # Avoid SentencePiece "Too big agenda size" warnings by disabling sampling
128
+ # for very long segments.
129
+ use_sampling = self.opts.sampling and (
130
+ self.opts.no_sampling_over <= 0 or len(text) <= self.opts.no_sampling_over
131
+ )
132
+ if use_sampling:
133
+ return self.sp.encode(
134
+ text, out_type=int, enable_sampling=True,
135
+ alpha=self.opts.alpha, nbest_size=self.opts.nbest_size
136
+ )
137
+ else:
138
+ return self.sp.encode(text, out_type=int)
139
+
140
+ def _split_long_by_ws(self, s: str):
141
+ """
142
+ Yield segments of s, each at most self.max_line_chars chars.
143
+ Prefer to split at the last whitespace before the limit.
144
+ """
145
+ if len(s) <= self.max_line_chars:
146
+ yield s
147
+ return
148
+ n = len(s)
149
+ start = 0
150
+ limit = self.max_line_chars
151
+ while start < n:
152
+ end = min(start + limit, n)
153
+ if end < n:
154
+ # search backward for whitespace near the limit
155
+ cut = -1
156
+ j = end - 1
157
+ # avoid cutting too early; allow search window down to start
158
+ while j > start:
159
+ if s[j].isspace():
160
+ cut = j
161
+ break
162
+ j -= 1
163
+ if cut == -1 or cut <= start:
164
+ cut = end
165
+ else:
166
+ cut = n
167
+ seg = s[start:cut]
168
+ if seg:
169
+ yield seg
170
+ start = cut
171
+
172
+ def __iter__(self) -> Iterator[dict]:
173
+ buf: List[int] = []
174
+ file_count = 0
175
+ for fp in self.files:
176
+ file_count += 1
177
+ line_count = 0
178
+ char_count = 0
179
+ with open(fp, "r", encoding="utf-8", errors="ignore") as f:
180
+ for line in f:
181
+ # keep inner spaces; only drop trailing newline
182
+ s = line.rstrip("\n")
183
+ line_count += 1
184
+ char_count += len(line)
185
+ if self.verbose and (line_count % max(1, self.scan_log_every) == 0):
186
+ print(f"[SCAN] {file_count}/{self.total_files} files | lines={line_count:,} | chars={char_count/1e6:.1f}M", flush=True)
187
+ if not s.strip():
188
+ continue
189
+ for seg in self._split_long_by_ws(s):
190
+ toks = self._encode(seg)
191
+ if self.opts.add_bos:
192
+ toks = [self.bos_id] + toks
193
+ if self.opts.add_eos:
194
+ toks = toks + [self.eos_id]
195
+ buf.extend(toks)
196
+ # pack
197
+ while len(buf) >= self.block:
198
+ chunk = buf[:self.block]
199
+ buf = buf[self.block:]
200
+ yield {
201
+ "input_ids": torch.tensor(chunk, dtype=torch.long),
202
+ "attention_mask": torch.ones(self.block, dtype=torch.long),
203
+ "labels": torch.tensor(chunk, dtype=torch.long), # causal LM: shift inside model
204
+ }
205
+ # tail
206
+ if not self.drop_last and buf:
207
+ # pad tail to block size
208
+ pad_len = self.block - len(buf)
209
+ buf = buf + [self.pad_id] * pad_len
210
+ yield {
211
+ "input_ids": torch.tensor(buf, dtype=torch.long),
212
+ "attention_mask": torch.tensor([1]* (self.block - pad_len) + [0]*pad_len, dtype=torch.long),
213
+ "labels": torch.tensor(buf, dtype=torch.long),
214
+ }
215
+
216
+
217
+ # ----------------------------
218
+ # Dataloader collate — top-level (picklable for multiprocessing)
219
+ # ----------------------------
220
+ def collate(batch: List[dict]):
221
+ # All blocks are fixed length already; just stack.
222
+ input_ids = torch.stack([b["input_ids"] for b in batch])
223
+ attn = torch.stack([b["attention_mask"] for b in batch])
224
+ labels = torch.stack([b["labels"] for b in batch])
225
+ return {"input_ids": input_ids, "attention_mask": attn, "labels": labels}
226
+
227
+
228
+ # ----------------------------
229
+ # Training loop
230
+ # ----------------------------
231
+
232
+ def save_ckpt(model, optimizer, scheduler, step, save_dir, cfg):
233
+ os.makedirs(save_dir, exist_ok=True)
234
+ state = {
235
+ "step": step,
236
+ "model": model.state_dict(),
237
+ "optimizer": optimizer.state_dict(),
238
+ "scheduler": scheduler.state_dict() if scheduler else None,
239
+ "cfg": cfg,
240
+ }
241
+ path = os.path.join(save_dir, f"ckpt_step_{step}.pt")
242
+ torch.save(state, path)
243
+ with open(os.path.join(save_dir, "last.json"), "w") as f:
244
+ json.dump({"last": path, "step": step}, f)
245
+ print(f"[CKPT] saved {path}")
246
+
247
+
248
+ def load_last_ckpt(model, optimizer, scheduler, save_dir):
249
+ last_file = os.path.join(save_dir, "last.json")
250
+ if not os.path.exists(last_file):
251
+ return 0
252
+ meta = json.load(open(last_file))
253
+ path = meta.get("last")
254
+ if not path or not os.path.exists(path):
255
+ return 0
256
+ state = torch.load(path, map_location="cpu")
257
+ model.load_state_dict(state["model"], strict=False)
258
+ if optimizer and state.get("optimizer"):
259
+ optimizer.load_state_dict(state["optimizer"])
260
+ if scheduler and state.get("scheduler"):
261
+ scheduler.load_state_dict(state["scheduler"])
262
+ print(f"[CKPT] resumed from {path}")
263
+ return int(state.get("step", 0))
264
+
265
+
266
+ # ----------------------------
267
+ # Main
268
+ # ----------------------------
269
+
270
+ def main():
271
+ ap = argparse.ArgumentParser()
272
+ ap.add_argument("--sp_model", default="kaira_tokenizer_forced.model")
273
+ ap.add_argument("--data_glob", default="dataset_parts/**/*.txt")
274
+ ap.add_argument("--save_dir", default="models/pretrain_runs/kaira_gpt2_small")
275
+ ap.add_argument("--block_size", type=int, default=2048, help="fixed block size for packing (no padding except last block)")
276
+ ap.add_argument("--batch_size", type=int, default=16)
277
+ ap.add_argument("--accum", type=int, default=6, help="gradient accumulation steps")
278
+ ap.add_argument("--max_steps", type=int, default=3000)
279
+ ap.add_argument("--warmup_steps", type=int, default=100)
280
+ ap.add_argument("--lr", type=float, default=3e-4)
281
+ ap.add_argument("--wd", type=float, default=0.01)
282
+ ap.add_argument("--layers", type=int, default=12)
283
+ ap.add_argument("--n_head", type=int, default=8)
284
+ ap.add_argument("--d_model", type=int, default=256)
285
+ ap.add_argument("--dropout", type=float, default=0.1)
286
+ ap.add_argument("--save_every", type=int, default=500)
287
+ ap.add_argument("--seed", type=int, default=42)
288
+ ap.add_argument("--no_sampling", action="store_true", help="disable SP subword sampling")
289
+ ap.add_argument("--sp_nbest", type=int, default=64, help="nbest size for SP sampling when enabled")
290
+ ap.add_argument("--sp_alpha", type=float, default=0.1, help="alpha for SP sampling when enabled")
291
+ ap.add_argument("--no_sampling_over", type=int, default=1000,
292
+ help="disable SP sampling when a segment is longer than this many characters (0=always sample)")
293
+ ap.add_argument("--max_line_chars", type=int, default=1800, help="split lines longer than this many chars before tokenizing")
294
+ ap.add_argument("--workers", type=int, default=4, help="DataLoader workers (0=main thread)")
295
+ ap.add_argument("--resume", action="store_true")
296
+ ap.add_argument("--use_checkpoint", action="store_true", help="Enable gradient checkpointing to save memory")
297
+ ap.add_argument("--grad_clip", type=float, default=1.0, help="Gradient norm clipping")
298
+ ap.add_argument("--grad_mul", type=float, default=1.0, help="Multiply loss before backward to amplify gradients")
299
+ ap.add_argument("--lr_scale_with_accum", action="store_true", help="Linearly scale LR by accumulation steps")
300
+ ap.add_argument("--log_every", type=int, default=20)
301
+ ap.add_argument("--auto_tune", action="store_true", help="Auto backoff on OOM (batch/block) and continue training")
302
+ ap.add_argument("--keep_total_tokens", action="store_true", help="Keep total tokens per update roughly constant when batch shrinks (scale accum)")
303
+ ap.add_argument("--max_accum", type=int, default=64, help="Upper bound for gradient accumulation when scaling")
304
+ ap.add_argument("--min_bs", type=int, default=1, help="Lower bound for micro-batch size during backoff")
305
+ ap.add_argument("--min_block", type=int, default=256, help="Lower bound for block_size during backoff")
306
+ ap.add_argument("--bs_backoff", type=float, default=0.5, help="Multiply batch_size by this factor on OOM (0.5 halves it)")
307
+ ap.add_argument("--block_backoff", type=float, default=0.75, help="Multiply block_size by this factor on repeated OOM")
308
+ ap.add_argument("--oom_patience", type=int, default=2, help="How many consecutive OOMs before backing off block size")
309
+ ap.add_argument("--teacher_hf", type=str, default="", help="Path to HF dir for teacher model (for KL distillation)")
310
+ ap.add_argument("--distill_alpha", type=float, default=0.0, help="Weight for KL distillation loss (0=off)")
311
+ ap.add_argument("--distill_T", type=float, default=1.0, help="Temperature for distillation")
312
+ ap.add_argument("--teacher_text_glob", type=str, default="", help="Glob for teacher-generated text files (text-based KD)")
313
+ ap.add_argument("--teacher_repeat", type=int, default=1, help="Repeat teacher text files list k times for oversampling")
314
+ ap.add_argument("--teacher_model_id", type=str, default="Turkish-Gemma-9b-T1", help="HF repo id or local path for teacher model used to auto-generate text (text KD)")
315
+ ap.add_argument("--teacher_bits", type=int, default=4, choices=[4,8], help="Quantization: 4 or 8 bit for teacher model")
316
+ ap.add_argument("--teacher_auto_gen", type=int, default=0, help="If >0, auto-generate N teacher samples into save_dir/teacher_out at startup")
317
+ ap.add_argument("--teacher_gen_max_new_tokens", type=int, default=128, help="Max new tokens to generate per sample for teacher text")
318
+ ap.add_argument("--teacher_gen_temperature", type=float, default=0.8, help="Generation temperature for teacher")
319
+ ap.add_argument("--teacher_gen_top_p", type=float, default=0.95, help="Top-p for teacher generation")
320
+ ap.add_argument("--ema", action="store_true", help="Enable EMA of weights for stability")
321
+ ap.add_argument("--ema_decay", type=float, default=0.999, help="EMA decay (e.g., 0.999)")
322
+ ap.add_argument("--freeze_layers", type=int, default=0, help="Freeze lowest N transformer blocks to reduce forgetting")
323
+ ap.add_argument("--anchor_reg", type=float, default=0.0, help="L2 anchor regularization strength toward initial weights (EWC-lite)")
324
+ ap.add_argument("--progress", action="store_true", help="Enable tqdm progress bars/logs")
325
+ ap.add_argument("--scan_log_every", type=int, default=50000, help="Log every N lines per file during scanning")
326
+ ap.add_argument("--val_glob", type=str, default="", help="Validation files glob (e.g., 'dataset_parts_val/**/*.txt'). If empty, validation is disabled.")
327
+ ap.add_argument("--val_every", type=int, default=0, help="Run validation every N true updates (0=off)")
328
+ ap.add_argument("--val_max_batches", type=int, default=50, help="Max validation batches to average per eval")
329
+ ap.add_argument("--log_csv", type=str, default="", help="Write metrics to this CSV path (default: save_dir/train_log.csv)")
330
+ ap.add_argument("--save_best", action="store_true", help="Save ckpt_best.pt when validation loss improves")
331
+ ap.add_argument("--autosave_secs", type=int, default=600, help="Time-based autosave interval in seconds (0=off)")
332
+ ap.add_argument("--save_on_interrupt", action="store_true", help="Save checkpoint on KeyboardInterrupt (Ctrl+C)")
333
+ # Memory helpers
334
+ def maybe_empty_cache():
335
+ try:
336
+ if torch.cuda.is_available():
337
+ torch.cuda.empty_cache()
338
+ except Exception:
339
+ pass
340
+ try:
341
+ if hasattr(torch, "mps") and hasattr(torch.mps, "empty_cache"):
342
+ torch.mps.empty_cache()
343
+ except Exception:
344
+ pass
345
+ args = ap.parse_args()
346
+
347
+ # Setup metrics CSV path
348
+ if not args.log_csv:
349
+ args.log_csv = os.path.join(args.save_dir, "train_log.csv")
350
+ os.makedirs(args.save_dir, exist_ok=True)
351
+ if not os.path.exists(args.log_csv):
352
+ with open(args.log_csv, "w", encoding="utf-8") as f:
353
+ f.write("time,step,train_loss,train_ppl,val_loss,val_ppl,lr,bs,block,accum\n")
354
+
355
+ set_seed(args.seed)
356
+ device = detect_device()
357
+
358
+ # Optionally auto-generate teacher text files for text-KD
359
+ def maybe_generate_teacher_text():
360
+ if args.teacher_auto_gen <= 0:
361
+ return None
362
+ if not _HAVE_AUTO_HF:
363
+ print("[TEXT-KD] transformers Auto*/BitsAndBytes not available; skipping auto generation.")
364
+ return None
365
+ out_dir = os.path.join(args.save_dir, "teacher_out")
366
+ os.makedirs(out_dir, exist_ok=True)
367
+ # Collect seed prompts from data_glob (first non-empty lines)
368
+ seed_prompts = []
369
+ for fp in sorted(glob.glob(args.data_glob, recursive=True)):
370
+ try:
371
+ with open(fp, "r", encoding="utf-8", errors="ignore") as f:
372
+ for line in f:
373
+ s = line.strip()
374
+ if s:
375
+ seed_prompts.append(s)
376
+ break # take first non-empty line per file
377
+ except Exception:
378
+ continue
379
+ if len(seed_prompts) >= args.teacher_auto_gen:
380
+ break
381
+ if not seed_prompts:
382
+ print("[TEXT-KD] No seed prompts could be collected; skipping auto generation.")
383
+ return None
384
+ print(f"[TEXT-KD] Auto-generating {len(seed_prompts)} samples with teacher '{args.teacher_model_id}' ({args.teacher_bits}-bit)...")
385
+ # Build quantization config
386
+ qcfg = None
387
+ if args.teacher_bits in (4, 8):
388
+ try:
389
+ if args.teacher_bits == 4:
390
+ qcfg = BitsAndBytesConfig(load_in_4bit=True, bnb_4bit_quant_type="nf4", bnb_4bit_use_double_quant=True, bnb_4bit_compute_dtype=torch.float16)
391
+ else:
392
+ qcfg = BitsAndBytesConfig(load_in_8bit=True)
393
+ except Exception as e:
394
+ print(f"[TEXT-KD] BitsAndBytesConfig failed: {e}. Falling back to full precision (may OOM).")
395
+ qcfg = None
396
+ # Load teacher on visible CUDA (or CPU if no CUDA)
397
+ try:
398
+ tok = AutoTokenizer.from_pretrained(args.teacher_model_id, use_fast=True)
399
+ if qcfg is not None:
400
+ t_model = AutoModelForCausalLM.from_pretrained(args.teacher_model_id, quantization_config=qcfg, device_map="auto")
401
+ else:
402
+ t_model = AutoModelForCausalLM.from_pretrained(args.teacher_model_id, device_map="auto")
403
+ except Exception as e:
404
+ print(f"[TEXT-KD] Failed to load teacher model: {e}")
405
+ return None
406
+ # Speed flags
407
+ try:
408
+ torch.backends.cuda.matmul.allow_tf32 = True
409
+ torch.backends.cudnn.allow_tf32 = True
410
+ torch.backends.cudnn.benchmark = True
411
+ except Exception:
412
+ pass
413
+ # Generate and write files
414
+ for i, prompt in enumerate(seed_prompts, 1):
415
+ try:
416
+ inputs = tok(prompt, return_tensors="pt")
417
+ # Move to t_model device (first param device)
418
+ dev = next(t_model.parameters()).device
419
+ inputs = {k: v.to(dev) for k, v in inputs.items()}
420
+ out = t_model.generate(**inputs, do_sample=True, top_p=args.teacher_gen_top_p, temperature=args.teacher_gen_temperature, max_new_tokens=args.teacher_gen_max_new_tokens)
421
+ txt = tok.decode(out[0], skip_special_tokens=True)
422
+ # Save as a single-line .txt (prompt + generated to give context)
423
+ with open(os.path.join(out_dir, f"gen_{i:06d}.txt"), "w", encoding="utf-8") as wf:
424
+ wf.write(txt.strip() + "\n")
425
+ except Exception as ge:
426
+ print(f"[TEXT-KD] Gen failed for sample {i}: {ge}")
427
+ # Cleanup
428
+ try:
429
+ del t_model
430
+ if torch.cuda.is_available():
431
+ torch.cuda.empty_cache()
432
+ except Exception:
433
+ pass
434
+ print(f"[TEXT-KD] Wrote teacher samples to {out_dir}")
435
+ return out_dir
436
+
437
+ # CUDA/Tensor Core optimizations on Ampere (A5000)
438
+ if device.type == "cuda":
439
+ try:
440
+ torch.backends.cuda.matmul.allow_tf32 = True
441
+ torch.backends.cudnn.allow_tf32 = True
442
+ torch.backends.cudnn.benchmark = True
443
+ try:
444
+ torch.set_float32_matmul_precision("high")
445
+ except Exception:
446
+ pass
447
+ print("[CUDA] TF32 enabled; cuDNN benchmark on")
448
+ except Exception as _e:
449
+ print(f"[CUDA] Opt flags set failed: {_e}")
450
+
451
+ # Load SP tokenizer
452
+ sp = spm.SentencePieceProcessor(model_file=args.sp_model)
453
+ vocab_size = sp.get_piece_size()
454
+ ids = {
455
+ "unk": sp.piece_to_id("<unk>"),
456
+ "bos": sp.piece_to_id("<s>"),
457
+ "eos": sp.piece_to_id("</s>"),
458
+ "pad": sp.piece_to_id("<pad>"),
459
+ }
460
+ assert ids["unk"] == 0 and ids["bos"] == 1 and ids["eos"] == 2 and ids["pad"] == 3, \
461
+ f"Special IDs mismatch: {ids}"
462
+
463
+ # Model config
464
+ cfg = GPT2Config(
465
+ vocab_size=vocab_size,
466
+ n_positions=args.block_size,
467
+ n_ctx=args.block_size,
468
+ n_embd=args.d_model,
469
+ n_layer=args.layers,
470
+ n_head=args.n_head,
471
+ resid_pdrop=args.dropout,
472
+ embd_pdrop=args.dropout,
473
+ attn_pdrop=args.dropout,
474
+ bos_token_id=ids["bos"],
475
+ eos_token_id=ids["eos"],
476
+ pad_token_id=ids["pad"],
477
+ tie_word_embeddings=True,
478
+ )
479
+ model = GPT2LMHeadModel(cfg)
480
+
481
+ # Optionally enable gradient checkpointing and disable use_cache during training
482
+ if args.use_checkpoint:
483
+ try:
484
+ model.gradient_checkpointing_enable()
485
+ print("[CHKPT] Gradient checkpointing enabled")
486
+ except Exception as e:
487
+ print(f"[CHKPT] Could not enable checkpointing: {e}")
488
+ # Disable cache during training to reduce memory
489
+ if hasattr(model.config, "use_cache"):
490
+ model.config.use_cache = False
491
+
492
+ # Optionally freeze lowest N blocks (protect base knowledge)
493
+ if args.freeze_layers > 0:
494
+ try:
495
+ for i in range(min(args.freeze_layers, len(model.transformer.h))):
496
+ for p in model.transformer.h[i].parameters():
497
+ p.requires_grad = False
498
+ print(f"[FREEZE] Frozen lowest {args.freeze_layers} transformer blocks")
499
+ except Exception as e:
500
+ print(f"[FREEZE] Could not freeze layers: {e}")
501
+
502
+ # Teacher for KL distillation
503
+ teacher = None
504
+ if args.distill_alpha > 0.0:
505
+ try:
506
+ if args.teacher_hf:
507
+ teacher = GPT2LMHeadModel.from_pretrained(args.teacher_hf)
508
+ print(f"[DISTILL] Loaded teacher from {args.teacher_hf}")
509
+ else:
510
+ import copy
511
+ teacher = copy.deepcopy(model)
512
+ print("[DISTILL] Using self-snapshot as teacher")
513
+ teacher.to(device)
514
+ teacher.eval()
515
+ for p in teacher.parameters():
516
+ p.requires_grad = False
517
+ except Exception as e:
518
+ print(f"[DISTILL] Failed to set up teacher: {e}")
519
+ teacher = None
520
+
521
+ # EMA of weights
522
+ ema_state = None
523
+ if args.ema:
524
+ ema_state = {k: v.detach().clone() for k, v in model.state_dict().items()}
525
+ print(f"[EMA] Enabled (decay={args.ema_decay})")
526
+ def ema_update():
527
+ if not args.ema:
528
+ return
529
+ with torch.no_grad():
530
+ for k, v in model.state_dict().items():
531
+ if k in ema_state:
532
+ ema_state[k].mul_(args.ema_decay).add_(v.detach(), alpha=(1.0 - args.ema_decay))
533
+ else:
534
+ ema_state[k] = v.detach().clone().to(v.device)
535
+
536
+ # Anchor regularization (EWC-lite)
537
+ anchor_params = None
538
+ if args.anchor_reg > 0.0:
539
+ anchor_params = {n: p.detach().cpu().clone() for n, p in model.named_parameters() if p.requires_grad}
540
+ print(f"[ANCHOR] Enabled L2-to-initial with lambda={args.anchor_reg}")
541
+
542
+ # Device
543
+ model.to(device)
544
+ # Make sure EMA tensors are on the same device as the model (fixes MPS/CPU mismatch)
545
+ if args.ema and ema_state is not None:
546
+ for k in list(ema_state.keys()):
547
+ ema_state[k] = ema_state[k].to(device)
548
+ model.train()
549
+
550
+ # Optimizer & scheduler
551
+ base_lr = args.lr * (args.accum if args.lr_scale_with_accum else 1.0)
552
+ optimizer = torch.optim.AdamW(model.parameters(), lr=base_lr, weight_decay=args.wd)
553
+ scheduler = get_cosine_schedule_with_warmup(
554
+ optimizer, num_warmup_steps=args.warmup_steps, num_training_steps=args.max_steps
555
+ )
556
+
557
+ # Auto-generate teacher text if requested and no explicit glob is provided
558
+ if (not args.teacher_text_glob) and args.teacher_auto_gen > 0:
559
+ gen_dir = maybe_generate_teacher_text()
560
+ if gen_dir:
561
+ args.teacher_text_glob = os.path.join(gen_dir, "**/*.txt")
562
+
563
+ # Dataset & loader
564
+ files = sorted(glob.glob(args.data_glob, recursive=True))
565
+ assert files, f"No files matched: {args.data_glob}"
566
+ # Optional: mix teacher-generated text for text-based KD
567
+ if args.teacher_text_glob:
568
+ t_files = sorted(glob.glob(args.teacher_text_glob, recursive=True))
569
+ if t_files:
570
+ rep = max(1, int(args.teacher_repeat))
571
+ files = files + (t_files * rep)
572
+ print(f"[TEXT-KD] teacher_text files={len(t_files)} repeat={rep} -> added={len(t_files)*rep}")
573
+ else:
574
+ print("[TEXT-KD] No files matched for teacher_text_glob; skipping.")
575
+
576
+ sp_opts = SPOptions(
577
+ add_bos=True, add_eos=True,
578
+ sampling=(not args.no_sampling),
579
+ alpha=args.sp_alpha, nbest_size=args.sp_nbest,
580
+ no_sampling_over=args.no_sampling_over,
581
+ verbose=args.progress
582
+ )
583
+ ds = PackedSpDataset(
584
+ files, sp, args.block_size, ids["bos"], ids["eos"], ids["pad"], sp_opts,
585
+ max_line_chars=args.max_line_chars, drop_last=False,
586
+ verbose=args.progress, scan_log_every=args.scan_log_every, total_files=len(files)
587
+ )
588
+
589
+ # Validation loader (optional)
590
+ val_loader = None
591
+ if args.val_glob:
592
+ val_files = sorted(glob.glob(args.val_glob, recursive=True))
593
+ if val_files:
594
+ val_sp_opts = SPOptions(add_bos=True, add_eos=True, sampling=False, alpha=0.0, nbest_size=1, no_sampling_over=0, verbose=False)
595
+ val_ds = PackedSpDataset(
596
+ val_files, sp, args.block_size, ids["bos"], ids["eos"], ids["pad"], val_sp_opts,
597
+ max_line_chars=args.max_line_chars, drop_last=False, verbose=False, scan_log_every=args.scan_log_every, total_files=len(val_files)
598
+ )
599
+ def make_val_loader(bs:int):
600
+ return DataLoader(val_ds, batch_size=bs, collate_fn=collate, num_workers=0)
601
+ # keep eval micro-batch modest for M1
602
+ val_loader = make_val_loader(min(4, max(1, int(args.batch_size/2))))
603
+ else:
604
+ print("[VAL] No files matched for validation; disabling.")
605
+ args.val_every = 0
606
+
607
+
608
+ # Dynamic knobs for OOM-safe training
609
+ cur_bs = max(1, int(args.batch_size))
610
+ update_every = max(1, int(args.accum))
611
+ cur_block = int(args.block_size)
612
+
613
+ def make_loader(bs:int):
614
+ if args.workers > 0:
615
+ return DataLoader(
616
+ ds, batch_size=bs, collate_fn=collate,
617
+ num_workers=args.workers, persistent_workers=True, prefetch_factor=2,
618
+ pin_memory=(device.type == "cuda")
619
+ )
620
+ else:
621
+ return DataLoader(ds, batch_size=bs, collate_fn=collate, num_workers=0, pin_memory=(device.type == "cuda"))
622
+
623
+ loader = make_loader(cur_bs)
624
+ print(f"[DATA] DataLoader ready (workers={args.workers}, sp_sampling={not args.no_sampling}, nbest={args.sp_nbest if not args.no_sampling else 1}, alpha={args.sp_alpha if not args.no_sampling else 0.0})")
625
+
626
+ # Resume if requested
627
+ start_step = 0
628
+ if args.resume:
629
+ start_step = load_last_ckpt(model, optimizer, scheduler, args.save_dir)
630
+
631
+ print(f"[DEV] {device}, vocab={vocab_size}, block={args.block_size}, bs={args.batch_size} x accum={args.accum}")
632
+ print(f"[AMP] autocast={'on' if device.type == 'cuda' else 'off'}; GradScaler={'on' if (device.type == 'cuda') else 'off'}")
633
+ print(f"[SP] ids: {ids}")
634
+ print(f"[DATA] {len(files)} files matched. Streaming...")
635
+ print(f"[CFG] checkpointing={args.use_checkpoint}, grad_clip={args.grad_clip}, grad_mul={args.grad_mul}, lr={base_lr} (scale_with_accum={args.lr_scale_with_accum}), log_every={args.log_every}")
636
+ print(f"[DYN] cur_bs={cur_bs}, update_every={update_every}, cur_block={cur_block}")
637
+ print(f"[REG] distill_alpha={args.distill_alpha}, T={args.distill_T}, ema={args.ema}, freeze_layers={args.freeze_layers}, anchor_reg={args.anchor_reg}")
638
+ print(f"[SAVE] save_dir={args.save_dir}")
639
+ print(f"[SAVE] checkpoint every {args.save_every} true updates (~{args.save_every * max(1, int(args.accum))} micro-steps)")
640
+ if args.autosave_secs > 0:
641
+ print(f"[SAVE] autosave every {args.autosave_secs} seconds")
642
+
643
+ # Training progress bar over "steps" (each micro-step before an optimizer update)
644
+ pbar = get_tqdm(total=max(1, args.max_steps - start_step), desc="steps", disable=not args.progress)
645
+
646
+ if str(device) == "mps":
647
+ print("[TIP] On MPS, you can export PYTORCH_MPS_HIGH_WATERMARK_RATIO=0.0 before running to reduce OOM risk.")
648
+
649
+ scaler = torch.cuda.amp.GradScaler(enabled=(device.type == "cuda"))
650
+
651
+ step = start_step
652
+ # Running accumulators for logging
653
+ log_loss_sum = 0.0
654
+ log_loss_count = 0
655
+ best_val = float("inf")
656
+
657
+ def write_csv_row(step_num, train_loss, train_ppl, val_loss, val_ppl, lr, bs, block, accum):
658
+ ts = datetime.now().isoformat(timespec="seconds")
659
+ with open(args.log_csv, "a", encoding="utf-8") as f:
660
+ f.write(f"{ts},{step_num},{'' if train_loss is None else f'{train_loss:.6f}'},{'' if train_ppl is None else f'{train_ppl:.3f}'},{'' if val_loss is None else f'{val_loss:.6f}'},{'' if val_ppl is None else f'{val_ppl:.3f}'},{lr:.6f},{bs},{block},{accum}\n")
661
+
662
+ def run_validation():
663
+ if val_loader is None or args.val_every <= 0:
664
+ return None, None
665
+ model.eval()
666
+ losses = []
667
+ with torch.no_grad():
668
+ for i, batch in enumerate(val_loader):
669
+ if i >= max(1, args.val_max_batches):
670
+ break
671
+ input_ids = batch["input_ids"].to(device)
672
+ attention_mask = batch["attention_mask"].to(device)
673
+ labels = batch["labels"].to(device)
674
+ with torch.cuda.amp.autocast(enabled=(device.type == "cuda"), dtype=torch.float16):
675
+ out = model(input_ids=input_ids, attention_mask=attention_mask, labels=labels)
676
+ losses.append(out.loss.detach().cpu())
677
+ model.train()
678
+ if not losses:
679
+ return None, None
680
+ val_loss = float(torch.stack(losses).mean().item())
681
+ val_ppl = float(math.exp(min(20.0, val_loss)))
682
+ return val_loss, val_ppl
683
+
684
+ running = 0.0
685
+ model.train()
686
+
687
+ oom_streak = 0
688
+ last_autosave = time.time()
689
+ try:
690
+ while step < args.max_steps:
691
+ for batch in loader:
692
+ try:
693
+ # Move to device
694
+ input_ids = batch["input_ids"].to(device)
695
+ attention_mask = batch["attention_mask"].to(device)
696
+ labels = batch["labels"].to(device)
697
+
698
+ # Forward pass under autocast for CUDA
699
+ with torch.cuda.amp.autocast(enabled=(device.type == "cuda"), dtype=torch.float16):
700
+ outputs = model(input_ids=input_ids, attention_mask=attention_mask, labels=labels)
701
+ main_loss = outputs.loss # cross-entropy LM loss
702
+
703
+ # KL distillation from teacher (optional; keep for same-vocab use-cases)
704
+ if teacher is not None and args.distill_alpha > 0.0:
705
+ with torch.no_grad():
706
+ t_out = teacher(input_ids=input_ids, attention_mask=attention_mask)
707
+ t_logits = t_out.logits
708
+ T = max(1e-6, float(args.distill_T))
709
+ s_logp = torch.log_softmax(outputs.logits / T, dim=-1)
710
+ t_p = torch.softmax(t_logits / T, dim=-1)
711
+ kl_tok = torch.sum(t_p * (torch.log(t_p + 1e-8) - s_logp), dim=-1) # KL(P||Q)
712
+ distill_loss = (kl_tok.mean()) * (T * T)
713
+ main_loss = main_loss + args.distill_alpha * distill_loss
714
+
715
+ # Anchor L2 regularization toward initial weights (EWC-lite)
716
+ if anchor_params is not None and args.anchor_reg > 0.0:
717
+ reg = 0.0
718
+ cnt = 0
719
+ for n, p in model.named_parameters():
720
+ if p.requires_grad and n in anchor_params:
721
+ ap = anchor_params[n].to(p.device)
722
+ reg = reg + torch.mean((p - ap) ** 2)
723
+ cnt += 1
724
+ if cnt > 0:
725
+ main_loss = main_loss + args.anchor_reg * reg
726
+
727
+ # Scale & backward with GradScaler
728
+ loss = main_loss * (args.grad_mul / update_every)
729
+ if device.type == "cuda":
730
+ scaler.scale(loss).backward()
731
+ else:
732
+ loss.backward()
733
+
734
+ running += outputs.loss.item()
735
+ log_loss_sum += outputs.loss.item()
736
+ log_loss_count += 1
737
+
738
+ if (step + 1) % update_every == 0:
739
+ # Unscale before clipping when using AMP
740
+ if device.type == "cuda":
741
+ scaler.unscale_(optimizer)
742
+
743
+ nn.utils.clip_grad_norm_(model.parameters(), args.grad_clip)
744
+
745
+ if device.type == "cuda":
746
+ scaler.step(optimizer)
747
+ scaler.update()
748
+ else:
749
+ optimizer.step()
750
+
751
+ scheduler.step()
752
+ optimizer.zero_grad(set_to_none=True)
753
+ ema_update()
754
+
755
+ true_step = (step + 1) // update_every
756
+ if true_step % args.log_every == 0:
757
+ avg = log_loss_sum / max(1, log_loss_count)
758
+ ppl = math.exp(min(20.0, avg))
759
+ print(f"[STEP {true_step}] train_loss={avg:.4f} train_ppl={ppl:.2f} | bs={cur_bs} block={cur_block} accum={update_every}")
760
+ write_csv_row(true_step, avg, ppl, None, None, optimizer.param_groups[0]['lr'], cur_bs, cur_block, update_every)
761
+ log_loss_sum = 0.0
762
+ log_loss_count = 0
763
+ running = 0.0
764
+ if args.val_every > 0 and (true_step % args.val_every == 0):
765
+ val_loss, val_ppl = run_validation()
766
+ if val_loss is not None:
767
+ print(f"[VAL {true_step}] val_loss={val_loss:.4f} val_ppl={val_ppl:.2f}")
768
+ write_csv_row(true_step, None, None, val_loss, val_ppl, optimizer.param_groups[0]['lr'], cur_bs, cur_block, update_every)
769
+ if args.save_best and val_loss < best_val:
770
+ best_val = val_loss
771
+ save_ckpt(model, optimizer, scheduler, true_step, args.save_dir, cfg.to_dict())
772
+ save_ema_ckpt(ema_state, true_step, args.save_dir)
773
+ # Also mark as best
774
+ best_path = os.path.join(args.save_dir, "ckpt_best.pt")
775
+ last_meta = {"best_step": true_step, "best_val_loss": best_val}
776
+ torch.save({"step": true_step, "model": model.state_dict(), "cfg": cfg.to_dict()}, best_path)
777
+ with open(os.path.join(args.save_dir, "best.json"), "w") as f:
778
+ json.dump(last_meta, f)
779
+ print(f"[CKPT] saved BEST to {best_path}")
780
+ if true_step % args.save_every == 0:
781
+ save_ckpt(model, optimizer, scheduler, true_step, args.save_dir, cfg.to_dict())
782
+ save_ema_ckpt(ema_state, true_step, args.save_dir)
783
+ # Time-based autosave (independent of save_every)
784
+ if args.autosave_secs > 0 and (time.time() - last_autosave) >= args.autosave_secs:
785
+ save_ckpt(model, optimizer, scheduler, true_step, args.save_dir, cfg.to_dict())
786
+ save_ema_ckpt(ema_state, true_step, args.save_dir)
787
+ last_autosave = time.time()
788
+
789
+ step += 1
790
+ # progress bar update
791
+ try:
792
+ pbar.update(1)
793
+ if (step % args.log_every) == 0:
794
+ try:
795
+ cur_loss = outputs.loss.item()
796
+ cur_ppl = math.exp(min(20.0, float(cur_loss)))
797
+ pbar.set_postfix(bs=cur_bs, block=cur_block, accum=update_every, loss=f"{cur_loss:.3f}", ppl=f"{cur_ppl:.2f}")
798
+ except Exception:
799
+ pbar.set_postfix(bs=cur_bs, block=cur_block, accum=update_every)
800
+ except Exception:
801
+ pass
802
+ oom_streak = 0 # success resets streak
803
+ # free temporaries
804
+ del outputs, loss
805
+
806
+ if step >= args.max_steps:
807
+ break
808
+
809
+ except RuntimeError as e:
810
+ msg = str(e).lower()
811
+ is_oom = ("out of memory" in msg) or ("mps" in msg and "memory" in msg)
812
+ if not (args.auto_tune and is_oom):
813
+ raise
814
+ print(f"[OOM] Caught OOM: {e}")
815
+ maybe_empty_cache()
816
+ optimizer.zero_grad(set_to_none=True)
817
+ # Backoff strategy: reduce batch first
818
+ prev_bs = cur_bs
819
+ new_bs = max(args.min_bs, int(max(1, math.floor(cur_bs * args.bs_backoff))))
820
+ if new_bs < cur_bs:
821
+ cur_bs = new_bs
822
+ loader = make_loader(cur_bs)
823
+ if args.keep_total_tokens:
824
+ # scale accumulation to keep tokens/update approximately constant
825
+ tokens_old = prev_bs * cur_block * update_every
826
+ target = max(cur_block * cur_bs, 1)
827
+ scaled = max(1, int(round(tokens_old / target)))
828
+ update_every = min(args.max_accum, scaled)
829
+ if args.lr_scale_with_accum:
830
+ # adjust LR on-the-fly if requested
831
+ new_lr = args.lr * update_every
832
+ for g in optimizer.param_groups:
833
+ g['lr'] = new_lr
834
+ print(f"[BACKOFF] bs {prev_bs} -> {cur_bs}; accum set to {update_every}")
835
+ else:
836
+ # Could not reduce bs further; try reducing block (sequence length)
837
+ oom_streak += 1
838
+ if oom_streak >= args.oom_patience and cur_block > args.min_block:
839
+ prev_block = cur_block
840
+ cur_block = max(args.min_block, int(math.floor(cur_block * args.block_backoff)))
841
+ ds.block = cur_block # change packing length
842
+ loader = make_loader(cur_bs)
843
+ if args.keep_total_tokens:
844
+ # rescale accumulation to keep tokens/update
845
+ tokens_old = prev_bs * prev_block * update_every
846
+ target = max(cur_block * cur_bs, 1)
847
+ update_every = min(args.max_accum, max(1, int(round(tokens_old / target))))
848
+ if args.lr_scale_with_accum:
849
+ new_lr = args.lr * update_every
850
+ for g in optimizer.param_groups:
851
+ g['lr'] = new_lr
852
+ print(f"[BACKOFF] block {prev_block} -> {cur_block}; accum now {update_every}")
853
+ oom_streak = 0
854
+ else:
855
+ print("[OOM] Skipping this batch (waiting for patience/backoff)...")
856
+ continue
857
+
858
+ except KeyboardInterrupt:
859
+ print("[INTERRUPT] Caught KeyboardInterrupt.")
860
+ if args.save_on_interrupt:
861
+ curr_true_step = max(1, (step // max(1, int(args.accum))))
862
+ save_ckpt(model, optimizer, scheduler, curr_true_step, args.save_dir, cfg.to_dict())
863
+ save_ema_ckpt(ema_state, curr_true_step, args.save_dir)
864
+ print("[INTERRUPT] Checkpoint saved. Exiting.")
865
+ else:
866
+ print("[INTERRUPT] Exiting without saving (pass --save_on_interrupt to enable).")
867
+ finally:
868
+ try:
869
+ pbar.close()
870
+ except Exception:
871
+ pass
872
+ # Final save (also runs on normal completion)
873
+ final_true_step = max(1, (step // max(1, int(args.accum))) + 1)
874
+ save_ckpt(model, optimizer, scheduler, final_true_step, args.save_dir, cfg.to_dict())
875
+ save_ema_ckpt(ema_state, final_true_step, args.save_dir)
876
+ # Save HF compatible export
877
+ hf_dir = os.path.join(args.save_dir, "hf_export")
878
+ os.makedirs(hf_dir, exist_ok=True)
879
+ model.save_pretrained(hf_dir, safe_serialization=False)
880
+ with open(os.path.join(hf_dir, "config.json"), "w") as f:
881
+ f.write(model.config.to_json_string())
882
+ print(f"[DONE] Saved to {args.save_dir} and HF export at {hf_dir}")
883
+
884
+
885
+ # Save EMA checkpoint helper
886
+ def save_ema_ckpt(ema_state, step, save_dir):
887
+ if ema_state is None:
888
+ return
889
+ try:
890
+ os.makedirs(save_dir, exist_ok=True)
891
+ path = os.path.join(save_dir, f"ckpt_step_{step}_ema.pt")
892
+ cpu_ema = {k: v.detach().to("cpu") for k, v in ema_state.items()}
893
+ torch.save({"step": step, "ema": cpu_ema}, path)
894
+ print(f"[CKPT] saved EMA {path}")
895
+ except Exception as e:
896
+ print(f"[CKPT] EMA save failed: {e}")
897
+
898
+
899
+ if __name__ == "__main__":
900
+ main()
requirements.txt ADDED
@@ -0,0 +1,19 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # ==== Core training deps (NOT: torch'u ayrı kuruyoruz, cu121 ile) ====
2
+ transformers>=4.41
3
+ sentencepiece>=0.2.0
4
+ tqdm>=4.66
5
+
6
+ # AMP/performans & HF yardımcıları
7
+ accelerate>=0.30
8
+ huggingface-hub>=0.23
9
+
10
+ # Öğretmen 4/8-bit yükleme (Gemma 9B için)
11
+ bitsandbytes>=0.43
12
+
13
+ # İndirme hızlandırma ve veri
14
+ hf_transfer>=0.1.6
15
+ datasets>=2.19
16
+
17
+ # İzleme/diagnostic (opsiyonel ama faydalı)
18
+ gpustat>=1.1
19
+ nvitop>=1.3
sayac.py ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import glob
2
+ import sentencepiece as spm
3
+ from tqdm import tqdm
4
+ import os
5
+
6
+ # --- Ayarlar ---
7
+ TOKENIZER_MODEL_PATH = "kaira_tokenizer_forced.model"
8
+ DATASET_GLOB_PATTERN = "dataset_parts/**/*.txt" # Bu desen, dataset_parts içindeki tüm alt klasörleri de tarar
9
+
10
+ def count_tokens_in_dataset():
11
+ """
12
+ Belirtilen bir glob desenindeki tüm metin dosyalarını tarar ve
13
+ verilen SentencePiece modeliyle toplam token sayısını hesaplar.
14
+ """
15
+ # Tokenizer modelinin var olup olmadığını kontrol et
16
+ if not os.path.exists(TOKENIZER_MODEL_PATH):
17
+ print(f"Hata: Tokenizer modeli bulunamadı: '{TOKENIZER_MODEL_PATH}'")
18
+ print("Lütfen dosya yolunu kontrol et.")
19
+ return
20
+
21
+ print(f"Tokenizer modeli yükleniyor: {TOKENIZER_MODEL_PATH}")
22
+ sp = spm.SentencePieceProcessor(model_file=TOKENIZER_MODEL_PATH)
23
+
24
+ print(f"Metin dosyaları aranıyor: {DATASET_GLOB_PATTERN}")
25
+ # glob ile tüm .txt dosyalarının yollarını bul
26
+ file_paths = glob.glob(DATASET_GLOB_PATTERN, recursive=True)
27
+
28
+ if not file_paths:
29
+ print("Hata: Belirtilen desende hiç .txt dosyası bulunamadı.")
30
+ print("Lütfen klasör yapısını ve dosya adlarını kontrol et.")
31
+ return
32
+
33
+ print(f"Toplam {len(file_paths)} adet dosya bulundu. Token sayımı başlıyor...")
34
+
35
+ total_tokens = 0
36
+ # tqdm ile dosyalar üzerinde dönerken bir ilerleme çubuğu göster
37
+ for file_path in tqdm(file_paths, desc="Dosyalar işleniyor"):
38
+ try:
39
+ with open(file_path, 'r', encoding='utf-8', errors='ignore') as f:
40
+ # Dosyanın tüm içeriğini oku
41
+ content = f.read()
42
+ # İçeriği tokenize et ve token sayısını al
43
+ num_tokens = len(sp.encode_as_ids(content))
44
+ # Toplam token sayısına ekle
45
+ total_tokens += num_tokens
46
+ except Exception as e:
47
+ print(f"\n'{file_path}' okunurken bir hata oluştu: {e}")
48
+
49
+ # Sonucu formatlı bir şekilde yazdır
50
+ print("\n--- Sonuç ---")
51
+ print(f"Toplam dosya sayısı: {len(file_paths)}")
52
+ print(f"Toplam token sayısı: {total_tokens:,}") # Sayıyı binlik ayraçlarla yazdırır
53
+
54
+ if __name__ == "__main__":
55
+ count_tokens_in_dataset()
setup_ubuntu_kaira.sh ADDED
@@ -0,0 +1,48 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ #!/usr/bin/env bash
2
+ set -euo pipefail
3
+
4
+ # 1) Sistem
5
+ sudo apt-get update
6
+ sudo apt-get -y install python3 python3-venv python3-dev build-essential git wget curl tmux htop nvtop
7
+
8
+ # 2) CUDA 12.1 (Ubuntu 22.04)
9
+ wget -q https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb
10
+ sudo dpkg -i cuda-keyring_1.1-1_all.deb
11
+ sudo apt-get update
12
+ sudo apt-get -y install cuda-toolkit-12-1
13
+
14
+ if ! grep -q "/usr/local/cuda/bin" ~/.bashrc; then
15
+ echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
16
+ echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
17
+ fi
18
+
19
+ # 3) Python venv + PyTorch cu121
20
+ python3 -m venv venv
21
+ source venv/bin/activate
22
+ pip install --upgrade pip
23
+ pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
24
+
25
+ # 4) Proje bağımlılıkları
26
+ cat > requirements.txt <<'REQ'
27
+ transformers>=4.41
28
+ sentencepiece>=0.2.0
29
+ tqdm>=4.66
30
+ accelerate>=0.30
31
+ huggingface-hub>=0.23
32
+ bitsandbytes>=0.43
33
+ hf_transfer>=0.1.6
34
+ datasets>=2.19
35
+ gpustat>=1.1
36
+ nvitop>=1.3
37
+ REQ
38
+ pip install -r requirements.txt
39
+
40
+ # 5) Doğrulama
41
+ python - << 'PY'
42
+ import torch
43
+ print("cuda?", torch.cuda.is_available(), "gpus=", torch.cuda.device_count())
44
+ for i in range(torch.cuda.device_count()):
45
+ print(i, torch.cuda.get_device_name(i))
46
+ PY
47
+
48
+ echo "OK - Kurulum bitti. 'source venv/bin/activate' ve eğitim komutuna hazırsın."