File size: 7,331 Bytes
20fe29d | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 | ---
license: gpl-3.0
language:
- ru
pipeline_tag: text-generation
tags:
- llama
- russian
- creative-writing
- fanfiction
- lightweight
- cpu-friendly
---
# K.AI 2 — Живая русскоязычная модель для генерации текстов
**K.AI 2** — это компактная языковая модель, обученная **с нуля** на русскоязычных фанфиках. Цель проекта — создать «живую» нейросеть, которая отвечает естественно, без пластикового привкуса корпоративных LLM, и при этом **не требует датацентров** для работы. Модель запускается даже на MacBook 2011 года и выдаёт ~50 токенов/сек благодаря собственному движку [XLLM](https://xelltech.ru/kai_landing.html).
Это **Base Model** — модель без инструктивной настройки и без каких-либо фильтров. Она генерирует текст как есть: и про любовь, и про кровь. Единственное ограничение — её собственный «мозг»: без грамотного промпта модель склонна скатываться в романтику.
> ⚠️ **Модель нецензурирована.** Она может генерировать контент любого характера. Используйте ответственно.
---
## Model Details
### Описание
K.AI 2 — это сверхлёгкая LLM на архитектуре Llama 3, обученная с нуля на ~2 ГБ русскоязычных фанфиков. Это **не файнтюн** существующей модели — веса обучены полностью с нуля. Модель понимает **только русский язык**.
Ключевая идея: максимально компактная и оптимизированная модель, способная генерировать живые, эмоциональные тексты на потребительском (и даже устаревшем) железе.
- **Разработчик:** [XellTech](https://xelltech.ru)
- **Тип модели:** Causal Language Model (Base, без instruct-тюнинга)
- **Архитектура:** Llama 3 (8 слоёв, 512 dim, QKV, RoPE)
- **Язык:** Русский
- **Лицензия:** GPL-3.0
- **Обучена с нуля:** Да (не является дообучением)
### Ресурсы
- 🌐 **Лендинг проекта, XLLM, файлы модели:** [xelltech.ru/kai_landing.html](https://xelltech.ru/kai_landing.html)
- 💬 **Веб-интерфейс для генерации:** [kai.xelltech.ru](https://kai.xelltech.ru)
---
## Использование
### Для чего подходит
- Генерация фанфиков и художественных текстов на русском языке
- Эксперименты с локальными LLM на слабом железе
- Тестирование и исследование поведения маленьких моделей
- Развлечение и творчество без ограничений
### Как запустить
Рекомендуемый способ запуска — через **XLLM**, собственный inference-движок на C++, оптимизированный специально под эту модель. Работает на Linux, Windows и **macOS вплоть до 10.6.8**.
Скачать XLLM и файлы модели: [xelltech.ru/kai_landing.html](https://xelltech.ru/kai_landing.html)
Или попробуйте прямо в браузере: [kai.xelltech.ru](https://kai.xelltech.ru)
### Для чего НЕ подходит
- Задачи, требующие фактологической точности (модель галлюцинирует)
- Любые языки, кроме русского
- Использование как instruct/chat-модели (это base model, без выравнивания)
- Продакшн-системы и критичные приложения
---
## Особенности и ограничения
### Характер модели
- **Живой стиль** — тексты звучат эмоционально и естественно, а не как корпоративная болванка
- **Без фильтрации** — модель не отказывается от тем, генерирует всё подряд
- **Романтический уклон** — модель обожает любовные линии и склонна затягивать туда даже жёсткие сюжеты. Без тщательной настройки промпта «ум падает в бездну» романтики
- **Маленький мозг** — это компактная модель; качество и связность текста ограничены её размером
### Риски
- Генерация NSFW, жестокого или неприемлемого контента без каких-либо предупреждений
- Фактологические ошибки и галлюцинации
- Стереотипы и предвзятости, унаследованные из обучающих данных (фанфики)
---
## Обучение
### Данные
~2 ГБ русскоязычных фанфиков. Модель обучена **с нуля** — это не дообучение какой-либо существующей модели.
### Архитектура
| Параметр | Значение |
|---|---|
| Базовая архитектура | Llama 3 |
| Количество слоёв | 8 |
| Размерность | 512 |
| Внимание | QKV с RoPE |
| Язык | Только русский |
### Производительность
| Устройство | Скорость |
|---|---|
| MacBook (2011) через XLLM | ~50 токенов/сек |
---
## Техническая инфраструктура
### Движок — XLLM
Собственный inference-движок на C++, разработанный XellTech. Ключевые особенности:
- Экстремальная оптимизация под маленькие модели
- Поддержка macOS 10.6.8+, Linux, Windows
- Минимальные требования к железу
- Подробнее: [xelltech.ru/kai_landing.html](https://xelltech.ru/kai_landing.html)
---
## Цитирование
Если вы используете K.AI 2 в своих проектах или исследованиях:
```
@misc{kai2,
title={K.AI 2: Compact Russian Language Model for Creative Text Generation},
author={XellTech},
year={2025},
url={https://xelltech.ru/kai_landing.html}
}
```
---
## Контакт
- Сайт: [xelltech.ru](https://xelltech.ru)
- Проект K.AI: [xelltech.ru/kai_landing.html](https://xelltech.ru/kai_landing.html) |