File size: 1,787 Bytes
0e2d2d8 58f717c 0e2d2d8 58f717c 0e2d2d8 58f717c 0e2d2d8 58f717c 0e2d2d8 58f717c 0e2d2d8 58f717c 0e2d2d8 58f717c 0e2d2d8 58f717c 0e2d2d8 58f717c 0e2d2d8 58f717c 0e2d2d8 58f717c 0e2d2d8 58f717c | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 | ---
language:
- tr
library_name: transformers
tags:
- llama-3
- turkish
- NonTrained
- 1.5b
license: apache-2.0
---
# SykoLLM-V3.3-Beta (Non-Trained) 🇹🇷
Bu repo, **SykoLLM V3.3** sürümünün eğitim öncesi (randomly initialized) iskelet modelini içerir. Model **Llama 3** mimarisi üzerine inşa edilmiştir ve özellikle Türkçe dil yetenekleri için optimize edilecek şekilde tasarlanmıştır.
🚨 **DİKKAT:** Bu model henüz **EĞİTİLMEMİŞTİR (Untrained)**. Ağırlıkları rastgeledir. Şu haliyle anlamlı cevaplar veremez. Pre-training (CulturaX veri seti ile) süreci yakında başlayacaktır.
## Model Mimarisi ve Özellikler
Bu model, standart Llama 3 mimarisini takip eder ancak 1.5 Milyar parametre sınıfına uyarlanmıştır.
| Özellik | Değer | Açıklama |
| :--- | :--- | :--- |
| **Parametre Sayısı** | ~1.61 Milyar | Giriş seviyesi LLM için ideal denge |
| **Context Size** | 8K (8192) | Uzun metinleri anlama kapasitesi |
| **Vocab Size** | 128k | Llama 3 Tokenizer (Zengin Türkçe desteği) |
| **Hidden Size** | 2048 | Model genişliği |
| **Layers** | 24 | Katman sayısı |
| **GQA** | Var | Grouped Query Attention (Daha hızlı inference) |
## Yol Haritası 🗺️
- [x] Model mimarisinin belirlenmesi (Llama 3 tabanlı 1.5B)
- [x] Hugging Face reposunun oluşturulması
- [ ] **Pre-training:** uonlp/CulturaX veri seti ile A100 GPU üzerinde eğitim
- [ ] **Fine-tuning:** Türkçe talimat (instruct) veri setleri ile ince ayar
## Geliştirici Notu
Ben Burak (15), bu model üzerinde sıfırdan model eğitimi deneyimleri yapıyorum. Önceki V3.2 (320M) modelimden elde ettiğim tecrübeleri, şimdi A100 donanımı ve modern Llama 3 mimarisi ile birleştirerek 1.5B seviyesine taşıyorum.
---
*Geliştirici: syko818121* |