burak commited on
Update README.md
Browse files
README.md
CHANGED
|
@@ -74,7 +74,7 @@ prompt = (
|
|
| 74 |
|
| 75 |
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
|
| 76 |
|
| 77 |
-
# Metin üretimi
|
| 78 |
outputs = model.generate(
|
| 79 |
**inputs,
|
| 80 |
max_new_tokens=100,
|
|
@@ -88,8 +88,7 @@ outputs = model.generate(
|
|
| 88 |
# Çıktıyı decode etme
|
| 89 |
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
| 90 |
|
| 91 |
-
# Sadece asistanın verdiği cevabı temiz bir şekilde
|
| 92 |
-
# (Eğer prompt'un kendisini de görmek istersen split kısmını silebilirsin)
|
| 93 |
final_response = response.split("assistant\n\n")[-1].strip()
|
| 94 |
|
| 95 |
print(final_response)
|
|
|
|
| 74 |
|
| 75 |
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
|
| 76 |
|
| 77 |
+
# Metin üretimi
|
| 78 |
outputs = model.generate(
|
| 79 |
**inputs,
|
| 80 |
max_new_tokens=100,
|
|
|
|
| 88 |
# Çıktıyı decode etme
|
| 89 |
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
|
| 90 |
|
| 91 |
+
# Sadece asistanın verdiği cevabı temiz bir şekilde alma
|
|
|
|
| 92 |
final_response = response.split("assistant\n\n")[-1].strip()
|
| 93 |
|
| 94 |
print(final_response)
|