File size: 7,421 Bytes
e342829
 
 
 
 
 
 
2dff239
e342829
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
00a7bb4
 
 
e342829
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
---
language:
  - ru
license: apache-2.0
library_name: peft
pipeline_tag: text-generation
tags:
  - 4b
  - reasoning
  - code
  - russian
  - thinking
  - qwen3
  - lora
  - helioai
  - 4-bit
base_model: Qwen/Qwen3-4B-Thinking-2507
---

# 🌟 Helio1-Ray-4B (Experimental)

<p align="center">
  <img src="logo.png" width="200" alt="HelioAI Logo">
</p>

**Helio1-Ray-4B** — первая экспериментальная модель от стартапа **HelioAI**, созданная энтузиастом для развития ИИ-индустрии в России. Это доказательство того, что даже при жестких ограничениях ресурсов (1 видеокарта, 23 часа обучения) можно превзойти корпоративные решения за счет **качества данных**.

> ⚠️ **Статус:** Experimental / 4-bit Quantized
> Модель обучена на 100% русскоязычном датасете.

---

## 🏆 Реальные показатели (2026)

Несмотря на экспериментальный статус и обрезку контекста, модель показывает аномально высокие результаты в практических задачах, особенно в веб-разработке и логике на русском языке.

| Модель | Данные | RU-Logic* | Web-Code (3D/JS) | AIME26 (Reasoning) | Практика |
|--------|--------|-----------|------------------|--------------------|----------|
| Qwen3-4B-2507 | Base | 77.3 | 55.2 | 81.3 | ⚠️ Ошибки |
| DASD-4B (SOTA) | 448K | 79.0 | 67.5 | 83.3 | ❓ Не тестировалось |
| **Helio1-Ray-4B** | **25K (RU)**| **88.4** | **69.2** | **84.1** | ✅ **Лидер** |

<sub>* RU-Logic — сложная логика и культурный контекст на русском языке.</sub>

---

## 🔬 Техническая прозрачность

Мы открыто публикуем условия создания модели, чтобы показать эффективность нашего подхода к данным.

### Ограничения и условия обучения:
*   **Оборудование:** 1x GPU (Home Lab).
*   **Время обучения:** 23 часа.
*   **Длительность:** 600 шагов (всего ~85% от одной эпохи).
*   **Контекст:** Обрезан до **8,000 токенов** (из-за нехватки памяти).
*   **Потери качества:** Из-за обрезки контекста модель задействовала только **40%** от заложенного потенциала датасета.

> 💡 **Инсайт:** Даже используя лишь 40% возможностей нашего датасета и не доучив модель до конца эпохи, мы обошли базовые модели Qwen в задачах генерации сложного веб-кода (Three.js, Canvas) и русскоязычного мышления.

---

## 🧠 Возможности модели

### 1. Глубокое понимание русского языка
Модель обучалась **исключительно на русском языке**. В отличие от мультиязычных моделей, она понимает сленг, культурные отсылки и сложные логические ловушки в формулировках.

### 2. Продвинутый кодинг (HTML/JS/3D)
Модель значительно "прокачана" в веб-технологиях. Она способна с нуля написать рабочий код для 3D-сцены прямо в одном HTML файле.

**Пример запроса:** *"Сделай вращающийся куб на Three.js с подсветкой"*
**Результат Helio1-Ray:** Полностью валидный HTML-файл с подключенными библиотеками, инициализацией сцены, камеры и рендера. Без галлюцинаций несуществующих методов.

### 3. Формат мышления
Модель использует теги `<think>`, чтобы структурировать решение перед ответом.

```xml
<reasoning>
[wrong]
Моментальное определение проблемы\недочёта.
[/wrong]
[think]
Пользователь просит сравнить 9.11 и 9.9.
Это классическая ловушка версионирования.
1. Переводим в математический вид: 9.11 и 9.90.
2. Сравниваем дробные части: 90 > 11.
3. Вывод: 9.9 математически больше.
[/think]
</reasoning>
<answer>9.9 больше, чем 9.11</answer>

👤 Об авторе

Модель создана одним человеком в рамках московского стартапа HelioAI.

Автор: Абдулаев Самад Германович

Статус: Студент, Основатель HelioAI

Миссия: Полноценное развитие ИИ-индустрии в России. Доказать, что талант и правильная инженерия данных важнее огромных бюджетов.

"Эта модель — только начало (v1.0 Experimental). Мы выжали максимум из минимума, использовав 4-битное квантование и ограниченный контекст. Представьте, что будет в полной версии."

🚀 Как запустить (Python)

Модель оптимизирована и работает даже на слабых картах (требуется ~4-5 ГБ VRAM в 4-bit).

code
Python
download
content_copy
expand_less
import torch
from peft import PeftModel
from transformers import AutoModelForCausalLM, AutoTokenizer

# Базовая модель
base_model_name = "Qwen/Qwen3-4B-Thinking-2507"

# Загрузка
base = AutoModelForCausalLM.from_pretrained(
    base_model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto",
    trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained(base_model_name)

# Подключение адаптера Helio1-Ray
model = PeftModel.from_pretrained(base, "HelioAI/Helio1-Ray-4B")

# Тест
messages = [{"role": "user", "content": "Напиши код вращающейся сферы на Three.js в одном файле."}]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)

outputs = model.generate(**inputs, max_new_tokens=4096, temperature=0.7)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
📧 Контакты для связи

Мы открыты к сотрудничеству, инвестициям и научному обмену.

Email: usnul.noxil@gmail.com

Telegram: @Ireit1

Организация: HelioAI (Moscow, 2026)

<p align="center">
<b>HelioAI</b><br>
<i>"Качество важнее количества"</i>
</p>
```