{ "tokenizer_class": "CharacterTokenizer", "auto_map": { "AutoTokenizer": [ "tokenizer.CharacterTokenizer", null ] }, "bos_token": "", "eos_token": "", "unk_token": "", "pad_token": "", "vocab_file": "vocab.json", "clean_up_tokenization_spaces": false }