LLightPro-AWQ-4bit / README.md
AugustLight's picture
Update README.md
4a7391a verified
---
license: apache-2.0
datasets:
- Vikhrmodels/GrandMaster2
language:
- ru
base_model:
- AugustLight/LLightPro
---
# 🧙‍♂️ LLightPro
<div align="center">
![Model](https://img.shields.io/badge/Model-LLightPro-blue?style=for-the-badge)
![Method](https://img.shields.io/badge/Method-DoRA-orange?style=for-the-badge)
![Precision](https://img.shields.io/badge/Precision-Native%20BF16-green?style=for-the-badge)
![Language](https://img.shields.io/badge/Language-Russian-red?style=for-the-badge)
![AniworldAI](https://img.shields.io/badge/AniworldAI-Partner-purple?style=for-the-badge)
### Компактная модель. Мощная логика.
*Высококачественная дообучка экспериментальной модели для продвинутых рассуждений на русском языке*
[🤗 Hugging Face](https://huggingface.co/your-username/model-name) • [📊 Dataset](https://huggingface.co/datasets/Vikhrmodels/GrandMaster2) • [🔧 Base Model](https://huggingface.co/p-e-w/Qwen3-4B-Instruct-2507-heretic)
</div>
---
## 📖 О модели
**LLightPro** — это специализированная дообучка экспериментальной базовой модели `p-e-w/Qwen3-4B-Instruct-2507-heretic`, оптимизированная для **русского языка** и сложных задач рассуждения, программирования и логических головоломок с использованием элитного датасета **GrandMaster2**.
В отличие от стандартных LoRA-дообучек, эта модель использует технологию **DoRA** (Weight-Decomposed Low-Rank Adaptation), что позволяет ей изучать тонкие нюансы рассуждений без катастрофического забывания. Обучение проводилось в чистом **bfloat16** (без квантизации) на NVIDIA RTX 4090 для максимальной точности.
---
## ✨ Ключевые особенности
| Особенность | Описание |
|-------------|----------|
| 🧠 **Продвинутая архитектура** | Построена на экспериментальной версии Qwen3 "Heretic" |
| 🇷🇺 **Русский язык** | Дообучена для высококачественной работы с русским языком |
| ⚡ **Технология DoRA** | Weight-Decomposed LoRA (r=64, alpha=128) для превосходной способности обучения |
| 💎 **Безкомпромиссное качество** | Обучение в нативной точности bfloat16 без квантизации |
| 📚 **Элитные данные** | Дообучка на оптимизированной версии Vikhrmodels/GrandMaster2 |
| 🎯 **Точная настройка** | Низкая скорость обучения с косинусным планировщиком для предотвращения переобучения |
---
## 🎯 Основные применения
- 💬 **Диалоговые системы** на русском языке
- 🧩 **Логические задачи** и головоломки
- 💻 **Генерация кода** с комментариями на русском
- 🎭 **Ролевые игры** (Role-playing)
- 📝 **Сложные рассуждения** и анализ
- 🤖 **Ассистенты** для русскоязычных пользователей
---
## 📊 Технические детали обучения
<table>
<tr>
<td width="50%">
**⚙️ Оборудование и время**
- 🖥️ GPU: NVIDIA RTX 4090 (24GB)
- ⏱️ Время обучения: ~30 часов
- 🔢 Эпохи: 1 (для избежания переобучения)
</td>
<td width="50%">
**🧬 Архитектура**
- 📦 Базовая модель: Qwen3-4B Heretic
- 🎛️ Метод: DoRA (все линейные слои)
- 📈 Rank: 64 / Alpha: 128
- 📏 Контекст: 4096 токенов
</td>
</tr>
<tr>
<td width="50%">
**🔬 Точность**
- 💾 Precision: bfloat16
- 🚫 Без квантизации при обучении
- ⚡ Оптимизатор: paged_adamw_8bit
</td>
<td width="50%">
**📚 Данные**
- 📖 Датасет: GrandMaster2 (оптимизированный)
- 🎯 Фокус: Русский язык + reasoning
- 🎲 Специализация: Role-playing
</td>
</tr>
</table>
---
## 💻 Использование
### 🐍 Python (Transformers)
```python
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
# Загрузка модели
model_id = "AugustLight/LLightPro"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
# Пример использования
messages = [
{"role": "system", "content": "Ты полезный ассистент, заточенный на помощь в ответах на вопросы на русском языке."},
{"role": "user", "content": "Напиши функцию на Python для решения задачи о рюкзаке с использованием динамического программирования."}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(
**inputs,
max_new_tokens=1024,
temperature=0.7,
top_p=0.9,
do_sample=True
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
```
### 🦙 llama.cpp (GGUF)
```bash
# Скачайте GGUF версию модели
# Запустите с помощью llama.cpp
./main -m model.gguf -p "Ты полезный ассистент..." -n 512
```
### 📝 Рекомендуемые параметры генерации
```python
generation_config = {
"max_new_tokens": 1024,
"temperature": 0.7, # Для творческих задач: 0.8-1.0
"top_p": 0.9,
"top_k": 50,
"repetition_penalty": 1.1,
"do_sample": True
}
```
---
## 🎨 Примеры промптов
<details>
<summary>💬 Диалоговый ассистент</summary>
```python
messages = [
{"role": "system", "content": "Ты дружелюбный и полезный ассистент."},
{"role": "user", "content": "Объясни принцип работы нейронных сетей простыми словами."}
]
```
</details>
<details>
<summary>💻 Генерация кода</summary>
```python
messages = [
{"role": "system", "content": "Ты опытный программист Python."},
{"role": "user", "content": "Создай класс для работы с двоичным деревом поиска с методами вставки и поиска."}
]
```
</details>
<details>
<summary>🎭 Ролевая игра</summary>
```python
messages = [
{"role": "system", "content": "Ты мудрый волшебник из средневекового фэнтези мира."},
{"role": "user", "content": "Расскажи мне о древнем артефакте, который я нашел."}
]
```
</details>
---
## 📈 Производительность
-**Русский язык**: Высокое качество генерации текста
-**Reasoning**: Улучшенные способности к логическим рассуждениям
-**Coding**: Качественная генерация кода с комментариями
-**Role-playing**: Глубокая проработка персонажей
- ⚠️ **Размер**: 4B параметров — компактная и быстрая модель
---
## ⚠️ Ограничения
- 📏 Контекст ограничен 4096 токенами
- 🔬 Экспериментальная базовая модель может иметь непредсказуемое поведение
- 🌐 Оптимизирована в первую очередь для русского языка
- 📊 Может требовать дополнительной настройки для специфических задач
---
## 📜 Лицензия
Эта модель следует лицензированию базовой модели Qwen и датасета GrandMaster. Пожалуйста, обратитесь к оригинальным репозиториям для подробной информации о лицензиях:
- [Qwen License](https://huggingface.co/Qwen)
- [GrandMaster2 Dataset](https://huggingface.co/datasets/Vikhrmodels/GrandMaster2)
---
## 🙏 Благодарности
- **Base Model**: [p-e-w/Qwen3-4B-Instruct-2507-heretic](https://huggingface.co/p-e-w/Qwen3-4B-Instruct-2507-heretic)
- **Dataset**: [Vikhrmodels/GrandMaster2](https://huggingface.co/datasets/Vikhrmodels/GrandMaster2)
- **Training Framework**: [HuggingFace TRL](https://github.com/huggingface/trl) & [PEFT](https://github.com/huggingface/peft)
---
## 💜 Особая благодарность
Огромная благодарность **[AniworldAI](https://t.me/aniworldai)** за предоставленные вычислительные мощности для обучения этой модели!
Без их поддержки эта работа была бы невозможна. ❤️
---
<div align="center">
### Обучено с ❤️ используя TRL и PEFT
**Вопросы? Предложения? Создайте Issue!**
⭐ Если модель вам помогла, поставьте звёздочку!
</div>