Update README.md
Browse files
README.md
CHANGED
|
@@ -1,6 +1,6 @@
|
|
| 1 |
---
|
| 2 |
language:
|
| 3 |
-
-
|
| 4 |
tags:
|
| 5 |
- code
|
| 6 |
- llama
|
|
@@ -10,9 +10,10 @@ datasets:
|
|
| 10 |
- theblackcat102/evol-codealpaca-v1
|
| 11 |
- ise-uiuc/Magicoder-Evol-Instruct-110K
|
| 12 |
- nampdn-ai/tiny-codes
|
|
|
|
| 13 |
---
|
| 14 |
|
| 15 |
-
# SykoLLM-V4.7-CodeX-Beta
|
| 16 |
|
| 17 |
**SykoLLM-V4.7-CodeX-Beta**, kodlama ve yazılım geliştirme görevleri için eğitilmiş, Llama mimarisini temel alan kompakt bir dil modelidir. Bu model, çeşitli kodlama veri setleri üzerinde ince ayar (fine-tuning) yapılarak geliştirilmiştir.
|
| 18 |
|
|
@@ -24,7 +25,7 @@ Bu model şu anda **BETA** aşamasındadır.
|
|
| 24 |
* Şu anki performansı yalnızca manuel testlere dayanmaktadır.
|
| 25 |
* Geliştirme aşamasında olduğu için kod üretirken hatalar yapabilir, halüsinasyon görebilir veya beklenmedik çıktılar verebilir. Lütfen kritik sistemlerde kullanmadan önce çıktıları her zaman kontrol edin!
|
| 26 |
|
| 27 |
-
##
|
| 28 |
Modelin temel yapılandırma (config) özellikleri şunlardır:
|
| 29 |
* **Mimari:** LlamaForCausalLM
|
| 30 |
* **Gizli Boyut (Hidden Size):** 1024
|
|
@@ -33,13 +34,13 @@ Modelin temel yapılandırma (config) özellikleri şunlardır:
|
|
| 33 |
* **Maksimum Bağlam (Context Window):** 1024 token
|
| 34 |
* **Sözlük Boyutu (Vocab Size):** 32,000
|
| 35 |
|
| 36 |
-
##
|
| 37 |
Bu modelin kodlama yeteneklerini geliştirmek için aşağıdaki popüler açık kaynaklı veri setleri kullanılmıştır:
|
| 38 |
1. [`theblackcat102/evol-codealpaca-v1`](https://huggingface.co/datasets/theblackcat102/evol-codealpaca-v1)
|
| 39 |
2. [`ise-uiuc/Magicoder-Evol-Instruct-110K`](https://huggingface.co/datasets/ise-uiuc/Magicoder-Evol-Instruct-110K)
|
| 40 |
3. [`nampdn-ai/tiny-codes`](https://huggingface.co/datasets/nampdn-ai/tiny-codes)
|
| 41 |
|
| 42 |
-
##
|
| 43 |
|
| 44 |
Modeli `transformers` kütüphanesi ile kolayca projenize dahil edebilirsiniz:
|
| 45 |
|
|
|
|
| 1 |
---
|
| 2 |
language:
|
| 3 |
+
- tr
|
| 4 |
tags:
|
| 5 |
- code
|
| 6 |
- llama
|
|
|
|
| 10 |
- theblackcat102/evol-codealpaca-v1
|
| 11 |
- ise-uiuc/Magicoder-Evol-Instruct-110K
|
| 12 |
- nampdn-ai/tiny-codes
|
| 13 |
+
license: apache-2.0
|
| 14 |
---
|
| 15 |
|
| 16 |
+
# SykoLLM-V4.7-CodeX-Beta
|
| 17 |
|
| 18 |
**SykoLLM-V4.7-CodeX-Beta**, kodlama ve yazılım geliştirme görevleri için eğitilmiş, Llama mimarisini temel alan kompakt bir dil modelidir. Bu model, çeşitli kodlama veri setleri üzerinde ince ayar (fine-tuning) yapılarak geliştirilmiştir.
|
| 19 |
|
|
|
|
| 25 |
* Şu anki performansı yalnızca manuel testlere dayanmaktadır.
|
| 26 |
* Geliştirme aşamasında olduğu için kod üretirken hatalar yapabilir, halüsinasyon görebilir veya beklenmedik çıktılar verebilir. Lütfen kritik sistemlerde kullanmadan önce çıktıları her zaman kontrol edin!
|
| 27 |
|
| 28 |
+
## Model Detayları
|
| 29 |
Modelin temel yapılandırma (config) özellikleri şunlardır:
|
| 30 |
* **Mimari:** LlamaForCausalLM
|
| 31 |
* **Gizli Boyut (Hidden Size):** 1024
|
|
|
|
| 34 |
* **Maksimum Bağlam (Context Window):** 1024 token
|
| 35 |
* **Sözlük Boyutu (Vocab Size):** 32,000
|
| 36 |
|
| 37 |
+
## Eğitim Veri Setleri
|
| 38 |
Bu modelin kodlama yeteneklerini geliştirmek için aşağıdaki popüler açık kaynaklı veri setleri kullanılmıştır:
|
| 39 |
1. [`theblackcat102/evol-codealpaca-v1`](https://huggingface.co/datasets/theblackcat102/evol-codealpaca-v1)
|
| 40 |
2. [`ise-uiuc/Magicoder-Evol-Instruct-110K`](https://huggingface.co/datasets/ise-uiuc/Magicoder-Evol-Instruct-110K)
|
| 41 |
3. [`nampdn-ai/tiny-codes`](https://huggingface.co/datasets/nampdn-ai/tiny-codes)
|
| 42 |
|
| 43 |
+
## Nasıl Kullanılır?
|
| 44 |
|
| 45 |
Modeli `transformers` kütüphanesi ile kolayca projenize dahil edebilirsiniz:
|
| 46 |
|