spankevich commited on
Commit
7816bb6
·
verified ·
1 Parent(s): 2ac340d

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -6
README.md CHANGED
@@ -16,16 +16,12 @@ The training resulted in a validation cross-entropy loss of 1.300, while the tra
16
 
17
  Here are some examples of generated anecdotes starting with the prefix "Заходит":
18
 
19
- "Заходит как-то мужик в магазин. Видит - бармен, а вокруг него, снимает голову. - Ну, как ты думаешь, что ли? - Да нет, сын мой!"
20
 
21
- "Заходит в бар и говорит: — Девушка, а что это вы так много плохая? — А как же вы хотите, что вы не видите, что вы не знаете? — А какая разница? — Потому, что вы можете? — Подумайте, что этот фильм? — Да нет, но ведь этот факт, какой-то я не могу."
22
 
23
  Although the cross-entropy loss is relatively low (1.17, with a vocabulary size of 1024), the actual quality of the generated anecdotes is not very good. The generated text often lacks coherence and logical structure.
24
 
25
  Attached are the charts for quality, learning rate, and training epochs:
26
 
27
  ![output.png](https://cdn-uploads.huggingface.co/production/uploads/67b0bd703230f308b6a233c4/u-hUMHSc2dszOu6Xu7stZ.png)
28
-
29
- This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
30
- - Library: [More Information Needed]
31
- - Docs: [More Information Needed]
 
16
 
17
  Here are some examples of generated anecdotes starting with the prefix "Заходит":
18
 
19
+ 1. "Заходит как-то мужик в магазин. Видит - бармен, а вокруг него, снимает голову. - Ну, как ты думаешь, что ли? - Да нет, сын мой!"
20
 
21
+ 2. "Заходит в бар и говорит: — Девушка, а что это вы так много плохая? — А как же вы хотите, что вы не видите, что вы не знаете? — А какая разница? — Потому, что вы можете? — Подумайте, что этот фильм? — Да нет, но ведь этот факт, какой-то я не могу."
22
 
23
  Although the cross-entropy loss is relatively low (1.17, with a vocabulary size of 1024), the actual quality of the generated anecdotes is not very good. The generated text often lacks coherence and logical structure.
24
 
25
  Attached are the charts for quality, learning rate, and training epochs:
26
 
27
  ![output.png](https://cdn-uploads.huggingface.co/production/uploads/67b0bd703230f308b6a233c4/u-hUMHSc2dszOu6Xu7stZ.png)