# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("dwaru/RuAdaptGPT2Small")
model = AutoModelForCausalLM.from_pretrained("dwaru/RuAdaptGPT2Small")Quick Links
Модель созданная студентами ДГТУ "Школа Икс" для задач по генерации адаптированого текста на основе начального текста
Был использован промпт: 'Адапитруй текст {text} на уровень по CEFR: {level} Адаптированый текст: {target}'
Модель ai-forever/rugpt3small_based_on_gpt2 дообученая на датасете RuAdapt и RuSimpleSentEval подогнанным под формат RuAdapt
Ссылка на колаб: https://colab.research.google.com/drive/1wmfBC59Ju99g0TBfoWVO-24fy2mSPfMM?usp=sharing
- Downloads last month
- 4
Model tree for dwaru/RuAdaptGPT2Small
Base model
ai-forever/rugpt3small_based_on_gpt2
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="dwaru/RuAdaptGPT2Small")