File size: 487 Bytes
8efe6d0 132b0b4 9e32eef |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
---
license: mit
datasets:
- SonyaCat/Taras_Bulba
language:
- ru
pipeline_tag: text-generation
library_name: transformers
---
# Что это?
Это 400 мегабайтная пародия на LLM с архетектурой GPT2. Ваш кот будет умнее этой модели.
Обучена на датасете https://huggingface.co/datasets/SonyaCat/Taras_Bulba и имеет 100M параметров.
# Почему оно есть?
Мне было скучно. |