File size: 3,691 Bytes
7a204f9
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
---
base_model: Tongyi-MAI/Z-Image-Turbo
library_name: diffusers
pipeline_tag: text-to-image
tags:
- helioai
- russian
- lora
- 4-bit
- experimental
license: apache-2.0
language:
- ru
---

# 🧪 Helio-Ray-LoRA (Technology Preview v0.1)

<p align="center">
  <img src="logo.png" width="200" alt="HelioAI Logo">
</p>

**Helio-Ray-LoRA** — это экспериментальный адаптер (LoRA), демонстрирующий возможности нашей будущей технологии генерации. Мы обучили этот модуль всего на **2,635 эталонных изображениях**, чтобы показать, как качественная выборка данных может улучшить детализацию и понимание русского текста даже при минимальных затратах ресурсов.

> ⚠️ **Status:** Early Access / Experimental.
> 🚀 **Roadmap:** Полноценная модель **Helio1-Image-Ray-6B** (на 20k+ примерах) находится в разработке.

---

## 📸 Сравнение (LoRA vs Base)

Даже в формате легкого адаптера (300 Мб) мы добились значительного улучшения текстур и читаемости текста:

| Базовая модель | **Helio-Ray-LoRA** |
| :-: | :-: |
| ![Test 1](image-test-1.jpg) | ![Test 2](image-test-2.jpg) |

---

## 🎯 Для чего эта версия?

Это "легкая" версия для энтузиастов и разработчиков, которые хотят протестировать наши подходы к генерации:

1.  **Русский текст:** Улучшенная генерация вывесок и надписей.
2.  **Эффективность:** Вес адаптера всего **300 МБ**.
3.  **Совместимость:** Работает поверх `Z-Image-Turbo`, скачивается и подключается автоматически.
4.  **Разрешение:** Оптимизировано строго под **1024x1024**.

---

## 👤 От разработчика

*   **Автор:** Абдулаев Самад Германович (HelioAI Founder).
*   **Концепция:** Мы тестируем гипотезу "Data-Centric AI". Этот релиз доказывает, что даже малый, но качественный датасет способен изменить поведение огромной модели.
*   **Планы:** Сейчас мы готовим масштабный датасет (20,000+ примеров) для обучения полноценной Standalone-модели, которая не будет требовать внешних зависимостей.

---

## 🚀 Запуск (Python)

```python
import torch
from diffusers import DiffusionPipeline
from peft import PeftModel

# Автоматическая загрузка базы + нашего адаптера
pipe = DiffusionPipeline.from_pretrained(
    "Tongyi-MAI/Z-Image-Turbo",
    torch_dtype=torch.float16,
    trust_remote_code=True
)
pipe.to("cuda")

# Подключение Helio-Ray-LoRA
pipe.transformer = PeftModel.from_pretrained(
    pipe.transformer,
    "HelioAI/Helio-Ray-LoRA-v0.1", # Замени на свое новое имя репозитория!
    is_trainable=False
)

prompt = "Реалистичное фото, вывеска 'СВЕТ', 8k"
image = pipe(prompt, height=1024, width=1024, num_inference_steps=8, guidance_scale=0.0).images[0]
image.save("test.png")
```