syko818121 commited on
Commit
d646937
·
verified ·
1 Parent(s): 42812d0

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +58 -7
README.md CHANGED
@@ -1,10 +1,61 @@
1
  ---
2
- license: apache-2.0
 
 
 
 
 
 
3
  datasets:
4
- - nampdn-ai/tiny-codes
5
- - ise-uiuc/Magicoder-Evol-Instruct-110K
6
  - theblackcat102/evol-codealpaca-v1
7
- - turkish-nlp-suite/InstrucTurca
8
- language:
9
- - tr
10
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ language:
3
+ - en
4
+ tags:
5
+ - code
6
+ - llama
7
+ - coding
8
+ - text-generation
9
  datasets:
 
 
10
  - theblackcat102/evol-codealpaca-v1
11
+ - ise-uiuc/Magicoder-Evol-Instruct-110K
12
+ - nampdn-ai/tiny-codes
13
+ ---
14
+
15
+ # SykoLLM-V4.7-CodeX-Beta 🚀
16
+
17
+ **SykoLLM-V4.7-CodeX-Beta**, kodlama ve yazılım geliştirme görevleri için eğitilmiş, Llama mimarisini temel alan kompakt bir dil modelidir. Bu model, çeşitli kodlama veri setleri üzerinde ince ayar (fine-tuning) yapılarak geliştirilmiştir.
18
+
19
+ **Hugging Face Repo ID:** `syko818121/SykoLLM-V4.7-CodeX-Beta`
20
+
21
+ ## ⚠️ Önemli Uyarı (Beta Sürümü)
22
+ Bu model şu anda **BETA** aşamasındadır.
23
+ * Henüz resmi benchmark (kıyaslama) testlerinden geçirilmemiştir.
24
+ * Şu anki performansı yalnızca manuel testlere dayanmaktadır.
25
+ * Geliştirme aşamasında olduğu için kod üretirken hatalar yapabilir, halüsinasyon görebilir veya beklenmedik çıktılar verebilir. Lütfen kritik sistemlerde kullanmadan önce çıktıları her zaman kontrol edin!
26
+
27
+ ## 🧠 Model Detayları
28
+ Modelin temel yapılandırma (config) özellikleri şunlardır:
29
+ * **Mimari:** LlamaForCausalLM
30
+ * **Gizli Boyut (Hidden Size):** 1024
31
+ * **Katman Sayısı (Hidden Layers):** 20
32
+ * **Dikkat Başlıkları (Attention Heads):** 8
33
+ * **Maksimum Bağlam (Context Window):** 1024 token
34
+ * **Sözlük Boyutu (Vocab Size):** 32,000
35
+
36
+ ## 📚 Eğitim Veri Setleri
37
+ Bu modelin kodlama yeteneklerini geliştirmek için aşağıdaki popüler açık kaynaklı veri setleri kullanılmıştır:
38
+ 1. [`theblackcat102/evol-codealpaca-v1`](https://huggingface.co/datasets/theblackcat102/evol-codealpaca-v1)
39
+ 2. [`ise-uiuc/Magicoder-Evol-Instruct-110K`](https://huggingface.co/datasets/ise-uiuc/Magicoder-Evol-Instruct-110K)
40
+ 3. [`nampdn-ai/tiny-codes`](https://huggingface.co/datasets/nampdn-ai/tiny-codes)
41
+
42
+ ## 💻 Nasıl Kullanılır?
43
+
44
+ Modeli `transformers` kütüphanesi ile kolayca projenize dahil edebilirsiniz:
45
+
46
+ ```python
47
+ from transformers import AutoModelForCausalLM, AutoTokenizer
48
+
49
+ model_id = "syko818121/SykoLLM-V4.7-CodeX-Beta"
50
+
51
+ # Tokenizer ve Modeli yükle
52
+ tokenizer = AutoTokenizer.from_pretrained(model_id)
53
+ model = AutoModelForCausalLM.from_pretrained(model_id)
54
+
55
+ # Örnek bir prompt
56
+ prompt = "Write a Python function to reverse a string."
57
+ inputs = tokenizer(prompt, return_tensors="pt")
58
+
59
+ # Çıktı üret
60
+ outputs = model.generate(**inputs, max_new_tokens=100)
61
+ print(tokenizer.decode(outputs[0], skip_special_tokens=True))