{
"tokenizer_class": "CharacterTokenizer",
"auto_map": {
"AutoTokenizer": [
"tokenizer.CharacterTokenizer",
null
]
},
"bos_token": "",
"eos_token": "",
"unk_token": "",
"pad_token": "",
"vocab_file": "vocab.json",
"clean_up_tokenization_spaces": false
}