File size: 2,008 Bytes
652ae9d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
---

license: apache-2.0
datasets:
- p1atdev/gsm8k-ja-slim
- SyntheticVeryEasyMath5k
- SyntheticEasyMath1k
language:
- zho
- eng
- fra
- spa
- por
- deu
- ita
- rus
- jpn
- kor
- vie
- tha
- ara
base_model:
- Qwen/Qwen2.5-1.5B
library_name: transformers
tags:
- grpo
---


# Qwen2.5 1.5B R15

The `<|im_end|>` token does not work.

## Example

```py

from transformers import pipeline



messages = [

    {

        "role": "system",

        "content": """\

あなたは思慮深いassistantとして回答します。

userの質問に対して、<think></think>ブロック内で思考してから、<answer></answer>内にファイナルアンサーし、最後に<|im_end|>で回答終了してください。

具体的には「<think>ここで思考</think><answer>ここに最終解答</answer><|im_end|>」というような形です。

userの指示に対応しなさい。""".strip(),

    {

        "role": "user",

        "content": """次の問題を解き、計算結果を数値のみで解答してください。

ブレナンは学校の課題のために研究をしており、参考にするためにインターネットからファイルをコンピュータにダウンロードする必要がありました。800個のファイルをダウンロードした後、役に立たないものを70%削除しました。さらに400個のファイルをダウンロードしましたが、再び3/5が関係ないことに気づきました。2回目にダウンロードした関係のないファイルを削除した後、彼は何個の価値のあるファイルを持っていましたか?""",

    },

]

prompt = tokenizer.apply_chat_template(

    messages,

    tokenize=False,

    add_generation_prompt=True,

)

prompt += "<think>" # optional

print(prompt)



print(

    pipe(

        prompt,

        do_sample=True,

        max_new_tokens=512,

        temperature=0.9,

    )[0]["generated_text"][len(prompt) :].strip()

)

```