| --- |
| language: |
| - tr |
| library_name: transformers |
| tags: |
| - llama-3 |
| - turkish |
| - NonTrained |
| - 1.5b |
| license: apache-2.0 |
| --- |
| |
| # SykoLLM-V3.3-Beta (Non-Trained) 🇹🇷 |
|
|
| Bu repo, **SykoLLM V3.3** sürümünün eğitim öncesi (randomly initialized) iskelet modelini içerir. Model **Llama 3** mimarisi üzerine inşa edilmiştir ve özellikle Türkçe dil yetenekleri için optimize edilecek şekilde tasarlanmıştır. |
|
|
| 🚨 **DİKKAT:** Bu model henüz **EĞİTİLMEMİŞTİR (Untrained)**. Ağırlıkları rastgeledir. Şu haliyle anlamlı cevaplar veremez. Pre-training (CulturaX veri seti ile) süreci yakında başlayacaktır. |
|
|
| ## Model Mimarisi ve Özellikler |
|
|
| Bu model, standart Llama 3 mimarisini takip eder ancak 1.5 Milyar parametre sınıfına uyarlanmıştır. |
|
|
| | Özellik | Değer | Açıklama | |
| | :--- | :--- | :--- | |
| | **Parametre Sayısı** | ~1.61 Milyar | Giriş seviyesi LLM için ideal denge | |
| | **Context Size** | 8K (8192) | Uzun metinleri anlama kapasitesi | |
| | **Vocab Size** | 128k | Llama 3 Tokenizer (Zengin Türkçe desteği) | |
| | **Hidden Size** | 2048 | Model genişliği | |
| | **Layers** | 24 | Katman sayısı | |
| | **GQA** | Var | Grouped Query Attention (Daha hızlı inference) | |
|
|
| ## Yol Haritası 🗺️ |
|
|
| - [x] Model mimarisinin belirlenmesi (Llama 3 tabanlı 1.5B) |
| - [x] Hugging Face reposunun oluşturulması |
| - [ ] **Pre-training:** uonlp/CulturaX veri seti ile A100 GPU üzerinde eğitim |
| - [ ] **Fine-tuning:** Türkçe talimat (instruct) veri setleri ile ince ayar |
|
|
| ## Geliştirici Notu |
| Ben Burak (15), bu model üzerinde sıfırdan model eğitimi deneyimleri yapıyorum. Önceki V3.2 (320M) modelimden elde ettiğim tecrübeleri, şimdi A100 donanımı ve modern Llama 3 mimarisi ile birleştirerek 1.5B seviyesine taşıyorum. |
|
|
| --- |
| *Geliştirici: syko818121* |