burak commited on
Commit
052ada0
·
verified ·
1 Parent(s): 1aa1593

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +37 -8
README.md CHANGED
@@ -46,17 +46,46 @@ Modeli `transformers` kütüphanesi ile kolayca projenize dahil edebilirsiniz:
46
 
47
  ```python
48
  from transformers import AutoModelForCausalLM, AutoTokenizer
 
49
 
 
50
  model_id = "syko818121/SykoLLM-V4.7-CodeX-Beta"
51
 
52
- # Tokenizer ve Modeli yükle
53
  tokenizer = AutoTokenizer.from_pretrained(model_id)
54
- model = AutoModelForCausalLM.from_pretrained(model_id)
 
 
 
 
55
 
56
- # Örnek bir prompt
57
- prompt = "Write a Python function to reverse a string."
58
- inputs = tokenizer(prompt, return_tensors="pt")
59
 
60
- # Çıktı üret
61
- outputs = model.generate(**inputs, max_new_tokens=100)
62
- print(tokenizer.decode(outputs[0], skip_special_tokens=True))
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
46
 
47
  ```python
48
  from transformers import AutoModelForCausalLM, AutoTokenizer
49
+ import torch
50
 
51
+ # Modelin repo adı
52
  model_id = "syko818121/SykoLLM-V4.7-CodeX-Beta"
53
 
54
+ # Tokenizer ve Modeli yükleme
55
  tokenizer = AutoTokenizer.from_pretrained(model_id)
56
+ model = AutoModelForCausalLM.from_pretrained(
57
+ model_id,
58
+ torch_dtype=torch.bfloat16,
59
+ device_map="auto"
60
+ )
61
 
62
+ # Test metni
63
+ user_message = "6 + 6 kaç eder?"
 
64
 
65
+ # Llama 3 orijinal chat template'inin manuel olarak eklenmesi
66
+ # user ve assistant rolleri ile special token'lar korundu
67
+ prompt = (
68
+ f"<|begin_of_text|><|start_header_id|>user<|end_header_id|>\n\n"
69
+ f"{user_message}<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n"
70
+ )
71
+
72
+ inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
73
+
74
+ # Metin üretimi
75
+ outputs = model.generate(
76
+ **inputs,
77
+ max_new_tokens=100,
78
+ temperature=0.15,
79
+ top_p=0.9,
80
+ early_stopping=True,
81
+ repetition_penalty=1.16,
82
+ do_sample=False
83
+ )
84
+
85
+ # Çıktıyı decode etme
86
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
87
+
88
+ # Sadece asistanın verdiği cevabı temiz bir şekilde alma
89
+ final_response = response.split("assistant\n\n")[-1].strip()
90
+
91
+ print(final_response)