--- license: mit datasets: - SonyaCat/Taras_Bulba language: - ru pipeline_tag: text-generation library_name: transformers --- # Что это? Это 400 мегабайтная пародия на LLM с архетектурой GPT2. Ваш кот будет умнее этой модели. Обучена на датасете https://huggingface.co/datasets/SonyaCat/Taras_Bulba и имеет 100M параметров. # Почему оно есть? Мне было скучно.