metadata
language:
- ru
license: mit
tags:
- russian
- gpt
- text-generation
- conversational
- transformer
widget:
- text: Привет! Как дела?
example_title: Приветствие
- text: Объясни, почему небо голубое
example_title: Объяснение
- text: Напиши короткий рассказ про кота
example_title: Творчество
- text: 'Реши уравнение: 2x + 5 = 15'
example_title: Математика
library_name: transformers
AlphaGPT-2
AlphaGPT-2 (в разработке) — это русскоязычная диалоговая модель на основе архитектуры GPT-2, обученная на разнообразных диалоговых и математических датасетах. Модель предназначена для генерации текста, ответов на вопросы и решения математических задач.
🧠 Основные возможности
- Генерация диалогов на русском языке
- Решение простых и средних математических задач
- Поддержка instruction-style prompts
- Лёгкая интеграция с Hugging Face Transformers
⚡ Применение
Примеры использования с библиотекой transformers:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "prostochel097/alphagpt-2"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
prompt = "Пользователь: Привет! Объясни, как решить уравнение x^2 - 4 = 0.\nАссистент:"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=150)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

