AlphaGPT-2
AlphaGPT-2 (в разработке) — это русскоязычная диалоговая модель на основе архитектуры GPT-2, обученная на разнообразных диалоговых и математических датасетах. Модель предназначена для генерации текста, ответов на вопросы и решения математических задач.
🧠 Основные возможности
- Генерация диалогов на русском языке
- Решение простых и средних математических задач
- Поддержка instruction-style prompts
- Лёгкая интеграция с Hugging Face Transformers
⚡ Применение
Примеры использования с библиотекой transformers:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "prostochel097/alphagpt-2"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
prompt = "Пользователь: Привет! Объясни, как решить уравнение x^2 - 4 = 0.\nАссистент:"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=150)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

