🚀 AlphaGPT-1

Маленькая, но дерзкая русскоязычная GPT-модель, обученная на реальных диалогах.

alphagpt

🙏 Особая благодарность

Спасибо моему другу prisma3D за поддержку, идеи и вдохновение в этом проекте! 🎉

📊 Модель в цифрах

Характеристика Значение
Архитектура GPT-2
Параметры 12,484,608
Словарь 30,000 токенов (BPE)
Контекст 256 токенов
Шагов обучения 2,500+
Датасет Russian Dialogues (10,000 примеров)
Время обучения 8 часов на CPU
Устройство AMD Ryzen 7 4750U (1.70 GHz)

🎯 Особенности

  • Чисто русский - токенизатор обучен на русских диалогах
  • Без интернет-мусора - нет "омиг", "лол", эмодзи
  • Реальные диалоги - училась на настоящих разговорах
  • Маленький размер - 48MB, работает даже на CPU
  • Дружелюбная - создана с помощью друга prisma_3D ✨

Пример вопроса

  - text: Привет, как дела?
    example_title: Пример диалога
  - text: Сегодня я решил
    example_title: Продолжение мысли
  - text: Что ты думаешь о
    example_title: Вопрос

(скоро будет alphagpt-2)

Downloads last month
72
Safetensors
Model size
12.5M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Dataset used to train prostochel097/alphagpt-1