Ru-Gemma3-1B

Описание

Это экспериментальная версия модели Gemma 3 1B, дообученная на русскоязычном датасете Saiga-scored. Цель дообучения — подтянуть качество общения на русском языке и адаптировать модель под формат "Assistant/User".

Внимание:

  • Модель обучена всего 1 эпоху (экспериментальный ран).
  • Это 1B параметров (очень маленькая модель), поэтому не ждите от нее чудес уровня GPT-5.
  • В ответах возможна "каша" (смешивание языков, галлюцинации, потеря контекста).
  • Используйте на свой страх и риск. Автор не несет ответственности за сгенерированный контент.

Детали обучения

  • Base Model: Gemma 3 1B Instruct
  • Dataset: Saiga Scored (~40k диалогов)
  • Hardware: NVIDIA RTX 4070
  • Library: Unsloth (QLoRA)
  • Epochs: 1

Как запустить

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model_id = "wexyyyyyy/Ru-Gemma3-1B"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)

messages = [
    {"role": "user", "content": "Привет! Расскажи, почему небо голубое?"}
]

input_ids = tokenizer.apply_chat_template(
    messages,
    add_generation_prompt=True,
    return_tensors="pt"
).to(model.device)

outputs = model.generate(
    input_ids,
    max_new_tokens=512,
    temperature=0.6,
    top_p=0.9
)

print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True))
Downloads last month
7
Safetensors
Model size
1.0B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for wexyyyyyy/Ru-Gemma3-1B

Finetuned
(413)
this model
Finetunes
1 model
Quantizations
1 model

Dataset used to train wexyyyyyy/Ru-Gemma3-1B