File size: 7,331 Bytes
20fe29d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
---
license: gpl-3.0
language:
- ru
pipeline_tag: text-generation
tags:
- llama
- russian
- creative-writing
- fanfiction
- lightweight
- cpu-friendly
---

# K.AI 2 — Живая русскоязычная модель для генерации текстов

**K.AI 2** — это компактная языковая модель, обученная **с нуля** на русскоязычных фанфиках. Цель проекта — создать «живую» нейросеть, которая отвечает естественно, без пластикового привкуса корпоративных LLM, и при этом **не требует датацентров** для работы. Модель запускается даже на MacBook 2011 года и выдаёт ~50 токенов/сек благодаря собственному движку [XLLM](https://xelltech.ru/kai_landing.html).

Это **Base Model** — модель без инструктивной настройки и без каких-либо фильтров. Она генерирует текст как есть: и про любовь, и про кровь. Единственное ограничение — её собственный «мозг»: без грамотного промпта модель склонна скатываться в романтику.

> ⚠️ **Модель нецензурирована.** Она может генерировать контент любого характера. Используйте ответственно.

---

## Model Details

### Описание

K.AI 2 — это сверхлёгкая LLM на архитектуре Llama 3, обученная с нуля на ~2 ГБ русскоязычных фанфиков. Это **не файнтюн** существующей модели — веса обучены полностью с нуля. Модель понимает **только русский язык**.

Ключевая идея: максимально компактная и оптимизированная модель, способная генерировать живые, эмоциональные тексты на потребительском (и даже устаревшем) железе.

- **Разработчик:** [XellTech](https://xelltech.ru)
- **Тип модели:** Causal Language Model (Base, без instruct-тюнинга)
- **Архитектура:** Llama 3 (8 слоёв, 512 dim, QKV, RoPE)
- **Язык:** Русский
- **Лицензия:** GPL-3.0
- **Обучена с нуля:** Да (не является дообучением)

### Ресурсы

- 🌐 **Лендинг проекта, XLLM, файлы модели:** [xelltech.ru/kai_landing.html](https://xelltech.ru/kai_landing.html)
- 💬 **Веб-интерфейс для генерации:** [kai.xelltech.ru](https://kai.xelltech.ru)

---

## Использование

### Для чего подходит

- Генерация фанфиков и художественных текстов на русском языке
- Эксперименты с локальными LLM на слабом железе
- Тестирование и исследование поведения маленьких моделей
- Развлечение и творчество без ограничений

### Как запустить

Рекомендуемый способ запуска — через **XLLM**, собственный inference-движок на C++, оптимизированный специально под эту модель. Работает на Linux, Windows и **macOS вплоть до 10.6.8**.

Скачать XLLM и файлы модели: [xelltech.ru/kai_landing.html](https://xelltech.ru/kai_landing.html)

Или попробуйте прямо в браузере: [kai.xelltech.ru](https://kai.xelltech.ru)

### Для чего НЕ подходит

- Задачи, требующие фактологической точности (модель галлюцинирует)
- Любые языки, кроме русского
- Использование как instruct/chat-модели (это base model, без выравнивания)
- Продакшн-системы и критичные приложения

---

## Особенности и ограничения

### Характер модели

- **Живой стиль** — тексты звучат эмоционально и естественно, а не как корпоративная болванка
- **Без фильтрации** — модель не отказывается от тем, генерирует всё подряд
- **Романтический уклон** — модель обожает любовные линии и склонна затягивать туда даже жёсткие сюжеты. Без тщательной настройки промпта «ум падает в бездну» романтики
- **Маленький мозг** — это компактная модель; качество и связность текста ограничены её размером

### Риски

- Генерация NSFW, жестокого или неприемлемого контента без каких-либо предупреждений
- Фактологические ошибки и галлюцинации
- Стереотипы и предвзятости, унаследованные из обучающих данных (фанфики)

---

## Обучение

### Данные

~2 ГБ русскоязычных фанфиков. Модель обучена **с нуля** — это не дообучение какой-либо существующей модели.

### Архитектура

| Параметр | Значение |
|---|---|
| Базовая архитектура | Llama 3 |
| Количество слоёв | 8 |
| Размерность | 512 |
| Внимание | QKV с RoPE |
| Язык | Только русский |

### Производительность

| Устройство | Скорость |
|---|---|
| MacBook (2011) через XLLM | ~50 токенов/сек |

---

## Техническая инфраструктура

### Движок — XLLM

Собственный inference-движок на C++, разработанный XellTech. Ключевые особенности:

- Экстремальная оптимизация под маленькие модели
- Поддержка macOS 10.6.8+, Linux, Windows
- Минимальные требования к железу
- Подробнее: [xelltech.ru/kai_landing.html](https://xelltech.ru/kai_landing.html)

---

## Цитирование

Если вы используете K.AI 2 в своих проектах или исследованиях:

```
@misc{kai2,
  title={K.AI 2: Compact Russian Language Model for Creative Text Generation},
  author={XellTech},
  year={2025},
  url={https://xelltech.ru/kai_landing.html}
}
```

---

## Контакт

- Сайт: [xelltech.ru](https://xelltech.ru)
- Проект K.AI: [xelltech.ru/kai_landing.html](https://xelltech.ru/kai_landing.html)