| license: mit | |
| datasets: | |
| - SonyaCat/Taras_Bulba | |
| language: | |
| - ru | |
| pipeline_tag: text-generation | |
| library_name: transformers | |
| # Что это? | |
| Это 400 мегабайтная пародия на LLM с архетектурой GPT2. Ваш кот будет умнее этой модели. | |
| Обучена на датасете https://huggingface.co/datasets/SonyaCat/Taras_Bulba и имеет 100M параметров. | |
| # Почему оно есть? | |
| Мне было скучно. |