Update README.md
Browse files
README.md
CHANGED
|
@@ -33,6 +33,6 @@ tokenizer = AutoTokenizer.from_pretrained("MaxLSB/LeCarnet-21M")
|
|
| 33 |
prompt = "Il était une fois"
|
| 34 |
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
|
| 35 |
|
| 36 |
-
output = model.generate(input_ids, max_length=512)
|
| 37 |
print(tokenizer.decode(output[0], skip_special_tokens=True))
|
| 38 |
```
|
|
|
|
| 33 |
prompt = "Il était une fois"
|
| 34 |
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
|
| 35 |
|
| 36 |
+
output = model.generate(input_ids, max_length=512, temperature=0.4)
|
| 37 |
print(tokenizer.decode(output[0], skip_special_tokens=True))
|
| 38 |
```
|