Text Generation
Transformers
Safetensors
Japanese
qwen2
grpo
conversational
text-generation-inference
How to use from the
Use from the
Transformers library
# Use a pipeline as a high-level helper
from transformers import pipeline

pipe = pipeline("text-generation", model="p1atdev/qwen2.5-1.5b-R15")
messages = [
    {"role": "user", "content": "Who are you?"},
]
pipe(messages)
# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("p1atdev/qwen2.5-1.5b-R15")
model = AutoModelForCausalLM.from_pretrained("p1atdev/qwen2.5-1.5b-R15")
messages = [
    {"role": "user", "content": "Who are you?"},
]
inputs = tokenizer.apply_chat_template(
	messages,
	add_generation_prompt=True,
	tokenize=True,
	return_dict=True,
	return_tensors="pt",
).to(model.device)

outputs = model.generate(**inputs, max_new_tokens=40)
print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:]))
Quick Links

Qwen2.5 1.5B R15

The <|im_end|> token does not work.

Example

from transformers import pipeline

messages = [
    {
        "role": "system",
        "content": """\
あなたは思慮深いassistantとして回答します。
userの質問に対して、<think></think>ブロック内で思考してから、<answer></answer>内にファイナルアンサーし、最後に<|im_end|>で回答終了してください。
具体的には「<think>ここで思考</think><answer>ここに最終解答</answer><|im_end|>」というような形です。
userの指示に対応しなさい。""".strip(),
    {
        "role": "user",
        "content": """次の問題を解き、計算結果を数値のみで解答してください。
ブレナンは学校の課題のために研究をしており、参考にするためにインターネットからファイルをコンピュータにダウンロードする必要がありました。800個のファイルをダウンロードした後、役に立たないものを70%削除しました。さらに400個のファイルをダウンロードしましたが、再び3/5が関係ないことに気づきました。2回目にダウンロードした関係のないファイルを削除した後、彼は何個の価値のあるファイルを持っていましたか?""",
    },
]
prompt = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
)
prompt += "<think>" # optional
print(prompt)

print(
    pipe(
        prompt,
        do_sample=True,
        max_new_tokens=512,
        temperature=0.9,
    )[0]["generated_text"][len(prompt) :].strip()
)
Downloads last month
8
Safetensors
Model size
2B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for p1atdev/qwen2.5-1.5b-R15

Finetuned
(342)
this model

Dataset used to train p1atdev/qwen2.5-1.5b-R15