SykoSLM commited on
Commit
a91c61b
·
verified ·
1 Parent(s): 785fda8

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +33 -11
README.md CHANGED
@@ -96,27 +96,49 @@ Syko mimarisi Transformers'a kayıtlı olmadığı için, modeli çalıştırmak
96
  ## Kullanım
97
 
98
  ```python
99
- from transformers import AutoModelForCausalLM, AutoTokenizer
 
 
 
 
100
  import torch
 
101
 
102
- tokenizer = AutoTokenizer.from_pretrained("SykoSLM/SykoLLM-V5.4")
103
- model = AutoModelForCausalLM.from_pretrained("SykoSLM/SykoLLM-V5.4", trust_remote_code=True)
 
 
 
 
 
 
104
  model.eval()
105
 
106
- prompt = "<bos><user>\nMerhaba, nasılsın?</user>\n<assistant>\n"
107
- inputs = tokenizer(prompt, return_tensors="pt")
 
108
 
 
109
  with torch.no_grad():
110
  outputs = model.generate(
111
  **inputs,
112
- max_new_tokens=200,
113
- temperature=0.3,
114
- top_p=0.9,
115
- do_sample=True,
116
- repetition_penalty=1.16,
 
 
 
117
  )
118
 
119
- print(tokenizer.decode(outputs[0], skip_special_tokens=False))
 
 
 
 
 
 
120
  ```
121
 
122
  ---
 
96
  ## Kullanım
97
 
98
  ```python
99
+ # 1. Yeni sürümü zorla yükle (Eski sürümün önbellekte kalmasını önler)
100
+ # 1. Yeni sürümü zorla yükle ve uyumluluk için torchvision'ı dahil et
101
+ !pip install --upgrade syko-llm==0.3.4 transformers
102
+
103
+ import syko
104
  import torch
105
+ from transformers import AutoModelForCausalLM, AutoTokenizer
106
 
107
+ # 2. Cihaz ayarı (GPU varsa GPU, yoksa CPU)
108
+ device = "cuda" if torch.cuda.is_available() else "cpu"
109
+ print(f"Kullanılan cihaz: {device}")
110
+
111
+ # 3. Model ve Tokenizer'ı yükle
112
+ model_id = "SykoSLM/SykoLLM-V5.4"
113
+ tokenizer = AutoTokenizer.from_pretrained(model_id)
114
+ model = AutoModelForCausalLM.from_pretrained(model_id, dtype=torch.float32, device_map="cuda:0")
115
  model.eval()
116
 
117
+ # 4. Prompt hazırlığı (Eğitim formatınla birebir aynı olmalı!)
118
+ prompt = "<bos><user>\nGökyüzü hangi renktir?</user>\n<assistant>\n"
119
+ inputs = tokenizer(prompt, return_tensors="pt").to(device)
120
 
121
+ # 5. Yeni nesil, stabilize edilmiş Generation ayarları
122
  with torch.no_grad():
123
  outputs = model.generate(
124
  **inputs,
125
+ max_new_tokens=512, # Üretilecek maksimum token
126
+ use_cache=False,
127
+ do_sample=True, # Modelin farklı kelimeler seçmesine izin ver
128
+ temperature=0.3, # Yaratıcılık/Tutarlılık dengesi
129
+ top_p=0.9, # Sadece en mantıklı %90'lık ihtimallerden seç
130
+ repetition_penalty=1.17,
131
+ pad_token_id=tokenizer.pad_token_id,
132
+ eos_token_id=tokenizer.eos_token_id,
133
  )
134
 
135
+ # 6. Çıktıyı decode et ve göster
136
+ # prompt'u dahil etmeden sadece yeni üretilen kısmı görmek istersen skip_special_tokens=True yapabilirsiniz
137
+ response = tokenizer.decode(outputs[0], skip_special_tokens=False)
138
+
139
+ print("\n--- MODEL ÇIKTISI ---")
140
+ print(response)
141
+ print("---------------------")
142
  ```
143
 
144
  ---