Эта модель была обучена на наборе анекдотов и предназначена для генерации новых анекдотов.
Пример использования:

import torch
from transformers import ByteLevelBPETokenizer, TransformerForCausalLM

REPO_NAME = "katya0911/llm-course-hw1"

# Определите устройство (GPU, если доступно)
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

# Загрузите токенизатор и модель
tokenizer = ByteLevelBPETokenizer.from_pretrained(REPO_NAME)
model = TransformerForCausalLM.from_pretrained(REPO_NAME)
model = model.to(device)
model = model.eval()

# Пример генерации анекдота
input_text = "Колобок повесился"
input_ids = tokenizer.encode(input_text, return_tensors="pt").to(device)

# Генерация текста
with torch.no_grad():
    output = model.generate(input_ids, max_length=50, num_return_sequences=1)

# Декодируем результат
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)
Downloads last month
1
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Dataset used to train katya0911/llm-course-hw1