Ru-Gemma3-1B / README.md
name54's picture
Duplicate from wexyyyyyy/Ru-Gemma3-1B
f02ef53
metadata
license: gemma
language:
  - ru
  - en
base_model: unsloth/gemma-3-1b-it
tags:
  - gemma
  - gemma-3
  - saiga
  - conversation
  - text-generation
  - unsloth
datasets:
  - IlyaGusev/saiga_scored

Ru-Gemma3-1B

Описание

Это экспериментальная версия модели Gemma 3 1B, дообученная на русскоязычном датасете Saiga-scored. Цель дообучения — подтянуть качество общения на русском языке и адаптировать модель под формат "Assistant/User".

Внимание:

  • Модель обучена всего 1 эпоху (экспериментальный ран).
  • Это 1B параметров (очень маленькая модель), поэтому не ждите от нее чудес уровня GPT-5.
  • В ответах возможна "каша" (смешивание языков, галлюцинации, потеря контекста).
  • Используйте на свой страх и риск. Автор не несет ответственности за сгенерированный контент.

Детали обучения

  • Base Model: Gemma 3 1B Instruct
  • Dataset: Saiga Scored (~40k диалогов)
  • Hardware: NVIDIA RTX 4070
  • Library: Unsloth (QLoRA)
  • Epochs: 1

Как запустить

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model_id = "wexyyyyyy/Ru-Gemma3-1B"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)

messages = [
    {"role": "user", "content": "Привет! Расскажи, почему небо голубое?"}
]

input_ids = tokenizer.apply_chat_template(
    messages,
    add_generation_prompt=True,
    return_tensors="pt"
).to(model.device)

outputs = model.generate(
    input_ids,
    max_new_tokens=512,
    temperature=0.6,
    top_p=0.9
)

print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True))