Update README.md
Browse files
README.md
CHANGED
|
@@ -37,11 +37,11 @@ language:
|
|
| 37 |
>>> model = T5ForConditionalGeneration.from_pretrained("te-sla/pilot5")
|
| 38 |
>>> tokenizer = T5TokenizerFast.from_pretrained("te-sla/pilot5")
|
| 39 |
>>> text = "ova sekcija sadrži ideje za prioritetne pravce/teme razvoja jezičkih tehnologija (NLP) za srpski jezik. Alternativni pravci razvoja su ukratko pobrojani u odeljku H2."
|
| 40 |
-
>>> input =
|
| 41 |
|
| 42 |
>>> with torch.no_grad():
|
| 43 |
-
>>> output = model.generate(input_ids=input["input_ids"], attention_mask=input["attention_mask"], do_sample=False)
|
| 44 |
-
>>> decoded_output =
|
| 45 |
>>> print(decoded_output)
|
| 46 |
```
|
| 47 |
|
|
|
|
| 37 |
>>> model = T5ForConditionalGeneration.from_pretrained("te-sla/pilot5")
|
| 38 |
>>> tokenizer = T5TokenizerFast.from_pretrained("te-sla/pilot5")
|
| 39 |
>>> text = "ova sekcija sadrži ideje za prioritetne pravce/teme razvoja jezičkih tehnologija (NLP) za srpski jezik. Alternativni pravci razvoja su ukratko pobrojani u odeljku H2."
|
| 40 |
+
>>> input = tokenizer(text, return_tensors="pt")
|
| 41 |
|
| 42 |
>>> with torch.no_grad():
|
| 43 |
+
>>> output = model.generate(input_ids=input["input_ids"], attention_mask=input["attention_mask"], do_sample=False, max_length=512)
|
| 44 |
+
>>> decoded_output = tokenizer.decode(output[0], skip_special_tokens=True)
|
| 45 |
>>> print(decoded_output)
|
| 46 |
```
|
| 47 |
|