AlphaGPT-2

Hugging Face

AlphaGPT-2 (в разработке) — это русскоязычная диалоговая модель на основе архитектуры GPT-2, обученная на разнообразных диалоговых и математических датасетах. Модель предназначена для генерации текста, ответов на вопросы и решения математических задач.


🧠 Основные возможности

  • Генерация диалогов на русском языке
  • Решение простых и средних математических задач
  • Поддержка instruction-style prompts
  • Лёгкая интеграция с Hugging Face Transformers

⚡ Применение

Примеры использования с библиотекой transformers:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "prostochel097/alphagpt-2"

tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

prompt = "Пользователь: Привет! Объясни, как решить уравнение x^2 - 4 = 0.\nАссистент:"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=150)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Сравнения моделей: Figure_1

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support