alphagpt-2 / README.md
prostochel097's picture
Update README.md
5ca8e07 verified
metadata
language:
  - ru
license: mit
tags:
  - russian
  - gpt
  - text-generation
  - conversational
  - transformer
widget:
  - text: Привет! Как дела?
    example_title: Приветствие
  - text: Объясни, почему небо голубое
    example_title: Объяснение
  - text: Напиши короткий рассказ про кота
    example_title: Творчество
  - text: 'Реши уравнение: 2x + 5 = 15'
    example_title: Математика
library_name: transformers

AlphaGPT-2

Hugging Face

AlphaGPT-2 (в разработке) — это русскоязычная диалоговая модель на основе архитектуры GPT-2, обученная на разнообразных диалоговых и математических датасетах. Модель предназначена для генерации текста, ответов на вопросы и решения математических задач.


🧠 Основные возможности

  • Генерация диалогов на русском языке
  • Решение простых и средних математических задач
  • Поддержка instruction-style prompts
  • Лёгкая интеграция с Hugging Face Transformers

⚡ Применение

Примеры использования с библиотекой transformers:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "prostochel097/alphagpt-2"

tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

prompt = "Пользователь: Привет! Объясни, как решить уравнение x^2 - 4 = 0.\nАссистент:"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=150)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Сравнения моделей: Figure_1