alphagpt-2 / README.md
prostochel097's picture
Update README.md
5ca8e07 verified
---
language:
- ru
license: mit
tags:
- russian
- gpt
- text-generation
- conversational
- transformer
widget:
- text: Привет! Как дела?
example_title: Приветствие
- text: Объясни, почему небо голубое
example_title: Объяснение
- text: Напиши короткий рассказ про кота
example_title: Творчество
- text: 'Реши уравнение: 2x + 5 = 15'
example_title: Математика
library_name: transformers
---
# AlphaGPT-2
![Hugging Face](https://cdn-uploads.huggingface.co/production/uploads/694031e46f4ee7b27d767524/5repHB-ZUc2C8CjUBffKb.png)
**AlphaGPT-2** (в разработке) — это русскоязычная диалоговая модель на основе архитектуры GPT-2, обученная на разнообразных диалоговых и математических датасетах. Модель предназначена для генерации текста, ответов на вопросы и решения математических задач.
---
## 🧠 Основные возможности
- Генерация диалогов на русском языке
- Решение простых и средних математических задач
- Поддержка **instruction-style prompts**
- Лёгкая интеграция с Hugging Face Transformers
---
## ⚡ Применение
Примеры использования с библиотекой `transformers`:
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "prostochel097/alphagpt-2"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
prompt = "Пользователь: Привет! Объясни, как решить уравнение x^2 - 4 = 0.\nАссистент:"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=150)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```
Сравнения моделей:
![Figure_1](https://cdn-uploads.huggingface.co/production/uploads/694031e46f4ee7b27d767524/F4uW_NOpDQc_0JdjjxMcz.png)