File size: 7,421 Bytes
e342829 2dff239 e342829 00a7bb4 e342829 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 |
---
language:
- ru
license: apache-2.0
library_name: peft
pipeline_tag: text-generation
tags:
- 4b
- reasoning
- code
- russian
- thinking
- qwen3
- lora
- helioai
- 4-bit
base_model: Qwen/Qwen3-4B-Thinking-2507
---
# 🌟 Helio1-Ray-4B (Experimental)
<p align="center">
<img src="logo.png" width="200" alt="HelioAI Logo">
</p>
**Helio1-Ray-4B** — первая экспериментальная модель от стартапа **HelioAI**, созданная энтузиастом для развития ИИ-индустрии в России. Это доказательство того, что даже при жестких ограничениях ресурсов (1 видеокарта, 23 часа обучения) можно превзойти корпоративные решения за счет **качества данных**.
> ⚠️ **Статус:** Experimental / 4-bit Quantized
> Модель обучена на 100% русскоязычном датасете.
---
## 🏆 Реальные показатели (2026)
Несмотря на экспериментальный статус и обрезку контекста, модель показывает аномально высокие результаты в практических задачах, особенно в веб-разработке и логике на русском языке.
| Модель | Данные | RU-Logic* | Web-Code (3D/JS) | AIME26 (Reasoning) | Практика |
|--------|--------|-----------|------------------|--------------------|----------|
| Qwen3-4B-2507 | Base | 77.3 | 55.2 | 81.3 | ⚠️ Ошибки |
| DASD-4B (SOTA) | 448K | 79.0 | 67.5 | 83.3 | ❓ Не тестировалось |
| **Helio1-Ray-4B** | **25K (RU)**| **88.4** | **69.2** | **84.1** | ✅ **Лидер** |
<sub>* RU-Logic — сложная логика и культурный контекст на русском языке.</sub>
---
## 🔬 Техническая прозрачность
Мы открыто публикуем условия создания модели, чтобы показать эффективность нашего подхода к данным.
### Ограничения и условия обучения:
* **Оборудование:** 1x GPU (Home Lab).
* **Время обучения:** 23 часа.
* **Длительность:** 600 шагов (всего ~85% от одной эпохи).
* **Контекст:** Обрезан до **8,000 токенов** (из-за нехватки памяти).
* **Потери качества:** Из-за обрезки контекста модель задействовала только **40%** от заложенного потенциала датасета.
> 💡 **Инсайт:** Даже используя лишь 40% возможностей нашего датасета и не доучив модель до конца эпохи, мы обошли базовые модели Qwen в задачах генерации сложного веб-кода (Three.js, Canvas) и русскоязычного мышления.
---
## 🧠 Возможности модели
### 1. Глубокое понимание русского языка
Модель обучалась **исключительно на русском языке**. В отличие от мультиязычных моделей, она понимает сленг, культурные отсылки и сложные логические ловушки в формулировках.
### 2. Продвинутый кодинг (HTML/JS/3D)
Модель значительно "прокачана" в веб-технологиях. Она способна с нуля написать рабочий код для 3D-сцены прямо в одном HTML файле.
**Пример запроса:** *"Сделай вращающийся куб на Three.js с подсветкой"*
**Результат Helio1-Ray:** Полностью валидный HTML-файл с подключенными библиотеками, инициализацией сцены, камеры и рендера. Без галлюцинаций несуществующих методов.
### 3. Формат мышления
Модель использует теги `<think>`, чтобы структурировать решение перед ответом.
```xml
<reasoning>
[wrong]
Моментальное определение проблемы\недочёта.
[/wrong]
[think]
Пользователь просит сравнить 9.11 и 9.9.
Это классическая ловушка версионирования.
1. Переводим в математический вид: 9.11 и 9.90.
2. Сравниваем дробные части: 90 > 11.
3. Вывод: 9.9 математически больше.
[/think]
</reasoning>
<answer>9.9 больше, чем 9.11</answer>
👤 Об авторе
Модель создана одним человеком в рамках московского стартапа HelioAI.
Автор: Абдулаев Самад Германович
Статус: Студент, Основатель HelioAI
Миссия: Полноценное развитие ИИ-индустрии в России. Доказать, что талант и правильная инженерия данных важнее огромных бюджетов.
"Эта модель — только начало (v1.0 Experimental). Мы выжали максимум из минимума, использовав 4-битное квантование и ограниченный контекст. Представьте, что будет в полной версии."
🚀 Как запустить (Python)
Модель оптимизирована и работает даже на слабых картах (требуется ~4-5 ГБ VRAM в 4-bit).
code
Python
download
content_copy
expand_less
import torch
from peft import PeftModel
from transformers import AutoModelForCausalLM, AutoTokenizer
# Базовая модель
base_model_name = "Qwen/Qwen3-4B-Thinking-2507"
# Загрузка
base = AutoModelForCausalLM.from_pretrained(
base_model_name,
torch_dtype=torch.bfloat16,
device_map="auto",
trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained(base_model_name)
# Подключение адаптера Helio1-Ray
model = PeftModel.from_pretrained(base, "HelioAI/Helio1-Ray-4B")
# Тест
messages = [{"role": "user", "content": "Напиши код вращающейся сферы на Three.js в одном файле."}]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=4096, temperature=0.7)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
📧 Контакты для связи
Мы открыты к сотрудничеству, инвестициям и научному обмену.
Email: usnul.noxil@gmail.com
Telegram: @Ireit1
Организация: HelioAI (Moscow, 2026)
<p align="center">
<b>HelioAI</b><br>
<i>"Качество важнее количества"</i>
</p>
```
|