File size: 3,465 Bytes
12dd6fb
12ae782
7333919
a540da4
 
12ae782
a540da4
 
 
 
 
12dd6fb
 
e1de432
12dd6fb
12ae782
12dd6fb
26f5bf0
12dd6fb
12ae782
12dd6fb
12ae782
 
 
 
12dd6fb
12ae782
12dd6fb
92e27e8
12dd6fb
12ae782
 
 
 
 
 
92e27e8
12dd6fb
f00e5ad
9e3625d
 
 
 
 
 
 
720cbce
 
f00e5ad
 
 
 
e1de432
12dd6fb
12ae782
12dd6fb
12ae782
26f5bf0
 
 
a45569a
 
 
26f5bf0
 
a45569a
 
 
 
 
 
 
 
 
 
 
 
 
 
c565485
 
 
 
 
 
 
 
 
a45569a
 
2f3448a
a45569a
 
 
 
 
c565485
a45569a
 
 
 
c565485
a45569a
c565485
2f3448a
c565485
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
---
pipeline_tag: text-generation
language:
- tr
- en
tags:
- llama
- text-generation
- custom-model
- pre-trained
license: apache-2.0
---

# SykoLLM-V4.4 

SykoLLM-V4.4, LLaMA mimarisi temel alınarak **sıfırdan (from scratch)** eğitilmiş özel, hafif ve hızlı bir dil modelidir. Düşük kaynak tüketimi ile metin üretimi (text generation) görevlerini yerine getirmek üzere tasarlanmıştır.

##  Eğitim Detayları (Training Details)

Bu model ince ayar (fine-tuning) yapılmamış, tamamen sıfırdan pre-train edilmiştir. Eğitim süreciyle ilgili detaylar şunlardır:

* **Veri Seti:** 1.6 Milyon örnek (example)
* **Donanım:** Nvidia A100 GPU
* **Eğitim Süresi:** Yaklaşık 20 saat
* **Eğitim Tipi:** Pre-training (Sıfırdan)

## 📊 Model Özellikleri (Model Specs)

Modelin teknik özellikleri aşağıdaki gibidir:

* **Mimari:** LlamaForCausalLM
* **Parametre Boyutu:** Kompakt (1024 Hidden Size, 20 Gizli Katman)
* **Bağlam Penceresi (Context Window):** 1024 token
* **Dikkat Başlıkları (Attention Heads):** 8 (Num Key Value Heads: 8)
* **Kelime Dağarcığı (Vocab Size):** 32,000
* **Veri Tipi:** `bfloat16` (Daha verimli bellek kullanımı ve hızlı çıkarım için)
* **Parametre Sayısı** `~338 Milyon`

## Karşılaştırma Testleri (Her test 100 örnek ile yapılmıştır.)

![Screenshot_20260222_130837_Google](https://cdn-uploads.huggingface.co/production/uploads/67daa37bf03eefed4e8d1f7d/w_FER9M2Gyh9ViV8AN5vg.png)

![Screenshot_20260222_130825_Google](https://cdn-uploads.huggingface.co/production/uploads/67daa37bf03eefed4e8d1f7d/JAorC7b6CyusAtePxJyrW.png)

![Screenshot_20260222_130813_Google](https://cdn-uploads.huggingface.co/production/uploads/67daa37bf03eefed4e8d1f7d/czEno7kVaTfEotz1kbahd.png)

**SykoLLM-V4.4'ün ARC-EASY** testinde **%3** oranında **düşüş** yaşamasının sebebi **yıkıcı unutma'dır** 

Ancak son çıkan modelim olan **SykoLLM-V4.4'ün** testlerde genel olarak daha **başarılı** olmuştur. 



## Nasıl Kullanılır? (Quick Start)

Modeli Hugging Face `transformers` kütüphanesi ile saniyeler içinde projene dahil edebilirsin.

Öncelikle gerekli kütüphaneleri kurduğundan emin ol:


`pip install transformers torch`

Ardırdan aşağıdaki kodla birlikte modeli çalıştırabilirsiniz:

```bash
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

# Modelin repo adı
model_id = "syko818121/SykoLLM-V4.4"

# Tokenizer ve Modeli yükleme
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id, 
    torch_dtype=torch.bfloat16, 
    device_map="auto"
)

# Test metni
user_message = "6 + 6 kaç eder?"

# Llama 3 orijinal chat template'inin manuel olarak eklenmesi
# user ve assistant rolleri ile special token'lar korundu
prompt = (
    f"<|begin_of_text|><|start_header_id|>user<|end_header_id|>\n\n"
    f"{user_message}<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n"
)

inputs = tokenizer(prompt, return_tensors="pt").to(model.device)

# Metin üretimi
outputs = model.generate(
    **inputs, 
    max_new_tokens=100, 
    temperature=0.15, 
    top_p=0.9,
    early_stopping=True,
    repetition_penalty=1.16,
    do_sample=False
)

# Çıktıyı decode etme
response = tokenizer.decode(outputs[0], skip_special_tokens=True)

# Sadece asistanın verdiği cevabı temiz bir şekilde alma
final_response = response.split("assistant\n\n")[-1].strip()

print(final_response)