README.md
CHANGED
|
@@ -58,6 +58,7 @@ tokens = model.generate(
|
|
| 58 |
|
| 59 |
out = tokenizer.decode(tokens[0][input_ids.shape[1]:], skip_special_tokens=True).strip()
|
| 60 |
print(out)
|
|
|
|
| 61 |
|
| 62 |
## 謝辞
|
| 63 |
助言を与えてくださったすべての皆様に感謝します。
|
|
|
|
| 58 |
|
| 59 |
out = tokenizer.decode(tokens[0][input_ids.shape[1]:], skip_special_tokens=True).strip()
|
| 60 |
print(out)
|
| 61 |
+
```
|
| 62 |
|
| 63 |
## 謝辞
|
| 64 |
助言を与えてくださったすべての皆様に感謝します。
|