|
|
--- |
|
|
language: |
|
|
- ru |
|
|
license: mit |
|
|
tags: |
|
|
- russian |
|
|
- gpt |
|
|
- text-generation |
|
|
- conversational |
|
|
- transformer |
|
|
widget: |
|
|
- text: Привет! Как дела? |
|
|
example_title: Приветствие |
|
|
- text: Объясни, почему небо голубое |
|
|
example_title: Объяснение |
|
|
- text: Напиши короткий рассказ про кота |
|
|
example_title: Творчество |
|
|
- text: 'Реши уравнение: 2x + 5 = 15' |
|
|
example_title: Математика |
|
|
library_name: transformers |
|
|
--- |
|
|
|
|
|
# AlphaGPT-2 |
|
|
|
|
|
 |
|
|
|
|
|
**AlphaGPT-2** (в разработке) — это русскоязычная диалоговая модель на основе архитектуры GPT-2, обученная на разнообразных диалоговых и математических датасетах. Модель предназначена для генерации текста, ответов на вопросы и решения математических задач. |
|
|
|
|
|
--- |
|
|
|
|
|
## 🧠 Основные возможности |
|
|
|
|
|
- Генерация диалогов на русском языке |
|
|
- Решение простых и средних математических задач |
|
|
- Поддержка **instruction-style prompts** |
|
|
- Лёгкая интеграция с Hugging Face Transformers |
|
|
|
|
|
--- |
|
|
|
|
|
## ⚡ Применение |
|
|
|
|
|
Примеры использования с библиотекой `transformers`: |
|
|
|
|
|
```python |
|
|
from transformers import AutoModelForCausalLM, AutoTokenizer |
|
|
|
|
|
model_name = "prostochel097/alphagpt-2" |
|
|
|
|
|
tokenizer = AutoTokenizer.from_pretrained(model_name) |
|
|
model = AutoModelForCausalLM.from_pretrained(model_name) |
|
|
|
|
|
prompt = "Пользователь: Привет! Объясни, как решить уравнение x^2 - 4 = 0.\nАссистент:" |
|
|
inputs = tokenizer(prompt, return_tensors="pt") |
|
|
outputs = model.generate(**inputs, max_length=150) |
|
|
print(tokenizer.decode(outputs[0], skip_special_tokens=True)) |
|
|
``` |
|
|
Сравнения моделей: |
|
|
 |