sixfingerdev commited on
Commit
bf28b04
·
verified ·
1 Parent(s): f99559e

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +10 -10
README.md CHANGED
@@ -12,11 +12,11 @@ tags:
12
 
13
  # 🇹🇷 Kayra-Stable
14
 
15
- **Kayra-Stable**, 85M parametreli Türkçe instruction-tuned dil modelidir.
16
 
17
  ## 📊 Model Özellikleri
18
 
19
- - **Parametre Sayısı**: 85 Milyon
20
  - **Context Window**: 512 token
21
  - **Vocab Size**: 32,000
22
  - **Eğitim Süresi**: ~11 saat (T4 GPU)
@@ -31,20 +31,20 @@ tags:
31
 
32
  ## 🚀 Kullanım
33
  ```
34
- from transformers import AutoModelForCausalLM, AutoTokenizer
35
 
36
  # Model yükle
37
- model = AutoModelForCausalLM.from_pretrained("sixfingerdev/kayra-stable", trust_remote_code=True)
38
- tokenizer = AutoTokenizer.from_pretrained("sixfingerdev/kayra-stable")
39
 
40
  # Soru sor
41
- prompt = "### Soru: Türkiye'nin başkenti neresidir?\n\n### Cevap:"
42
- inputs = tokenizer(prompt, return_tensors="pt")
43
 
44
  # Cevap üret
45
- outputs = model.generate(**inputs, max_new_tokens=100, temperature=0.2)
46
- response = tokenizer.decode(outputs[0], skip_special_tokens=True)
47
- print(response.split("### Cevap:")[-1].strip())
48
  ```
49
  ## ✅ Test Sonuçları
50
 
 
12
 
13
  # 🇹🇷 Kayra-Stable
14
 
15
+ **Kayra-Stable**, ~117M parametreli Türkçe instruction-tuned dil modelidir.
16
 
17
  ## 📊 Model Özellikleri
18
 
19
+ - **Parametre Sayısı**: ~117 Milyon
20
  - **Context Window**: 512 token
21
  - **Vocab Size**: 32,000
22
  - **Eğitim Süresi**: ~11 saat (T4 GPU)
 
31
 
32
  ## 🚀 Kullanım
33
  ```
34
+ from transformers import AutoModelForCausalLM, AutoTokenizer
35
 
36
  # Model yükle
37
+ model = AutoModelForCausalLM.from_pretrained("sixfingerdev/kayra-stable", trust_remote_code=True)
38
+ tokenizer = AutoTokenizer.from_pretrained("sixfingerdev/kayra-stable")
39
 
40
  # Soru sor
41
+ prompt = "### Soru: Türkiye'nin başkenti neresidir?\n\n### Cevap:"
42
+ inputs = tokenizer(prompt, return_tensors="pt")
43
 
44
  # Cevap üret
45
+ outputs = model.generate(**inputs, max_new_tokens=100, temperature=0.2)
46
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
47
+ print(response.split("### Cevap:")[-1].strip())
48
  ```
49
  ## ✅ Test Sonuçları
50