SykoLLM-V4.4 / README.md
burak
Update README.md
f00e5ad verified
---
pipeline_tag: text-generation
language:
- tr
- en
tags:
- llama
- text-generation
- custom-model
- pre-trained
license: apache-2.0
---
# SykoLLM-V4.4
SykoLLM-V4.4, LLaMA mimarisi temel alınarak **sıfırdan (from scratch)** eğitilmiş özel, hafif ve hızlı bir dil modelidir. Düşük kaynak tüketimi ile metin üretimi (text generation) görevlerini yerine getirmek üzere tasarlanmıştır.
## Eğitim Detayları (Training Details)
Bu model ince ayar (fine-tuning) yapılmamış, tamamen sıfırdan pre-train edilmiştir. Eğitim süreciyle ilgili detaylar şunlardır:
* **Veri Seti:** 1.6 Milyon örnek (example)
* **Donanım:** Nvidia A100 GPU
* **Eğitim Süresi:** Yaklaşık 20 saat
* **Eğitim Tipi:** Pre-training (Sıfırdan)
## 📊 Model Özellikleri (Model Specs)
Modelin teknik özellikleri aşağıdaki gibidir:
* **Mimari:** LlamaForCausalLM
* **Parametre Boyutu:** Kompakt (1024 Hidden Size, 20 Gizli Katman)
* **Bağlam Penceresi (Context Window):** 1024 token
* **Dikkat Başlıkları (Attention Heads):** 8 (Num Key Value Heads: 8)
* **Kelime Dağarcığı (Vocab Size):** 32,000
* **Veri Tipi:** `bfloat16` (Daha verimli bellek kullanımı ve hızlı çıkarım için)
* **Parametre Sayısı** `~338 Milyon`
## Karşılaştırma Testleri (Her test 100 örnek ile yapılmıştır.)
![Screenshot_20260222_130837_Google](https://cdn-uploads.huggingface.co/production/uploads/67daa37bf03eefed4e8d1f7d/w_FER9M2Gyh9ViV8AN5vg.png)
![Screenshot_20260222_130825_Google](https://cdn-uploads.huggingface.co/production/uploads/67daa37bf03eefed4e8d1f7d/JAorC7b6CyusAtePxJyrW.png)
![Screenshot_20260222_130813_Google](https://cdn-uploads.huggingface.co/production/uploads/67daa37bf03eefed4e8d1f7d/czEno7kVaTfEotz1kbahd.png)
**SykoLLM-V4.4'ün ARC-EASY** testinde **%3** oranında **düşüş** yaşamasının sebebi **yıkıcı unutma'dır**
Ancak son çıkan modelim olan **SykoLLM-V4.4'ün** testlerde genel olarak daha **başarılı** olmuştur.
## Nasıl Kullanılır? (Quick Start)
Modeli Hugging Face `transformers` kütüphanesi ile saniyeler içinde projene dahil edebilirsin.
Öncelikle gerekli kütüphaneleri kurduğundan emin ol:
`pip install transformers torch`
Ardırdan aşağıdaki kodla birlikte modeli çalıştırabilirsiniz:
```bash
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
# Modelin repo adı
model_id = "syko818121/SykoLLM-V4.4"
# Tokenizer ve Modeli yükleme
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
# Test metni
user_message = "6 + 6 kaç eder?"
# Llama 3 orijinal chat template'inin manuel olarak eklenmesi
# user ve assistant rolleri ile special token'lar korundu
prompt = (
f"<|begin_of_text|><|start_header_id|>user<|end_header_id|>\n\n"
f"{user_message}<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n"
)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
# Metin üretimi
outputs = model.generate(
**inputs,
max_new_tokens=100,
temperature=0.15,
top_p=0.9,
early_stopping=True,
repetition_penalty=1.16,
do_sample=False
)
# Çıktıyı decode etme
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
# Sadece asistanın verdiği cevabı temiz bir şekilde alma
final_response = response.split("assistant\n\n")[-1].strip()
print(final_response)