{ "tokenizer_class": "BPETokenizer", "model_type": "gpt-300m", "vocab_size": 32000, "model_max_length": 2048, "padding_side": "right", "bos_token": "", "eos_token": "", "pad_token": "", "unk_token": "" }