File size: 487 Bytes
8efe6d0
 
 
 
 
 
 
132b0b4
9e32eef
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
---
license: mit
datasets:
- SonyaCat/Taras_Bulba
language:
- ru
pipeline_tag: text-generation
library_name: transformers
---
# Что это?
Это 400 мегабайтная пародия на LLM с архетектурой GPT2. Ваш кот будет умнее этой модели.
Обучена на датасете https://huggingface.co/datasets/SonyaCat/Taras_Bulba и имеет 100M параметров.

# Почему оно есть?
Мне было скучно.