Update README.md
Browse files
README.md
CHANGED
|
@@ -47,9 +47,7 @@ FastLanguageModel.for_inference(model)
|
|
| 47 |
# Test
|
| 48 |
messages = [
|
| 49 |
{"role":"system","content":"You are AI assistant. Give user answers"},# Sen bir Yapay Zeka Asistanısısın. kullanıcıdan gelen sorulara resmi cevap ver.
|
| 50 |
-
{"role":"user","content":"
|
| 51 |
-
{"role":"assistant","content":"I would like to help you."},
|
| 52 |
-
{"role":"user","content":"How many tools do you have?"},
|
| 53 |
]
|
| 54 |
prompt = tok.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt").to(model.device)
|
| 55 |
out = model.generate(prompt, max_new_tokens=2048)
|
|
|
|
| 47 |
# Test
|
| 48 |
messages = [
|
| 49 |
{"role":"system","content":"You are AI assistant. Give user answers"},# Sen bir Yapay Zeka Asistanısısın. kullanıcıdan gelen sorulara resmi cevap ver.
|
| 50 |
+
{"role":"user","content":"Selam!"}
|
|
|
|
|
|
|
| 51 |
]
|
| 52 |
prompt = tok.apply_chat_template(messages, tokenize=True, add_generation_prompt=True, return_tensors="pt").to(model.device)
|
| 53 |
out = model.generate(prompt, max_new_tokens=2048)
|