--- language: - ru license: mit tags: - russian - gpt - text-generation - conversational - transformer widget: - text: Привет! Как дела? example_title: Приветствие - text: Объясни, почему небо голубое example_title: Объяснение - text: Напиши короткий рассказ про кота example_title: Творчество - text: 'Реши уравнение: 2x + 5 = 15' example_title: Математика library_name: transformers --- # AlphaGPT-2 ![Hugging Face](https://cdn-uploads.huggingface.co/production/uploads/694031e46f4ee7b27d767524/5repHB-ZUc2C8CjUBffKb.png) **AlphaGPT-2** (в разработке) — это русскоязычная диалоговая модель на основе архитектуры GPT-2, обученная на разнообразных диалоговых и математических датасетах. Модель предназначена для генерации текста, ответов на вопросы и решения математических задач. --- ## 🧠 Основные возможности - Генерация диалогов на русском языке - Решение простых и средних математических задач - Поддержка **instruction-style prompts** - Лёгкая интеграция с Hugging Face Transformers --- ## ⚡ Применение Примеры использования с библиотекой `transformers`: ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "prostochel097/alphagpt-2" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) prompt = "Пользователь: Привет! Объясни, как решить уравнение x^2 - 4 = 0.\nАссистент:" inputs = tokenizer(prompt, return_tensors="pt") outputs = model.generate(**inputs, max_length=150) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` Сравнения моделей: ![Figure_1](https://cdn-uploads.huggingface.co/production/uploads/694031e46f4ee7b27d767524/F4uW_NOpDQc_0JdjjxMcz.png)