{ "tokenizer_class": "PreTrainedTokenizerFast", "model_input_names": [ "input_ids" ], "special_tokens": { "bos_token": "", "eos_token": "", "unk_token": "", "pad_token": "" }, "vocab_size": 20000, "tokenizer_file": "tokenizer.model" }