Update README.md
Browse files
README.md
CHANGED
|
@@ -16,16 +16,12 @@ The training resulted in a validation cross-entropy loss of 1.300, while the tra
|
|
| 16 |
|
| 17 |
Here are some examples of generated anecdotes starting with the prefix "Заходит":
|
| 18 |
|
| 19 |
-
"Заходит как-то мужик в магазин. Видит - бармен, а вокруг него, снимает голову. - Ну, как ты думаешь, что ли? - Да нет, сын мой!"
|
| 20 |
|
| 21 |
-
"Заходит в бар и говорит: — Девушка, а что это вы так много плохая? — А как же вы хотите, что вы не видите, что вы не знаете? — А какая разница? — Потому, что вы можете? — Подумайте, что этот фильм? — Да нет, но ведь этот факт, какой-то я не могу."
|
| 22 |
|
| 23 |
Although the cross-entropy loss is relatively low (1.17, with a vocabulary size of 1024), the actual quality of the generated anecdotes is not very good. The generated text often lacks coherence and logical structure.
|
| 24 |
|
| 25 |
Attached are the charts for quality, learning rate, and training epochs:
|
| 26 |
|
| 27 |

|
| 28 |
-
|
| 29 |
-
This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
|
| 30 |
-
- Library: [More Information Needed]
|
| 31 |
-
- Docs: [More Information Needed]
|
|
|
|
| 16 |
|
| 17 |
Here are some examples of generated anecdotes starting with the prefix "Заходит":
|
| 18 |
|
| 19 |
+
1. "Заходит как-то мужик в магазин. Видит - бармен, а вокруг него, снимает голову. - Ну, как ты думаешь, что ли? - Да нет, сын мой!"
|
| 20 |
|
| 21 |
+
2. "Заходит в бар и говорит: — Девушка, а что это вы так много плохая? — А как же вы хотите, что вы не видите, что вы не знаете? — А какая разница? — Потому, что вы можете? — Подумайте, что этот фильм? — Да нет, но ведь этот факт, какой-то я не могу."
|
| 22 |
|
| 23 |
Although the cross-entropy loss is relatively low (1.17, with a vocabulary size of 1024), the actual quality of the generated anecdotes is not very good. The generated text often lacks coherence and logical structure.
|
| 24 |
|
| 25 |
Attached are the charts for quality, learning rate, and training epochs:
|
| 26 |
|
| 27 |

|
|
|
|
|
|
|
|
|
|
|
|