| { | |
| "tokenizer_class": "CharacterTokenizer", | |
| "auto_map": { | |
| "AutoTokenizer": [ | |
| "tokenizer.CharacterTokenizer", | |
| null | |
| ] | |
| }, | |
| "bos_token": "<s>", | |
| "eos_token": "</s>", | |
| "unk_token": "<unk>", | |
| "pad_token": "<pad>", | |
| "vocab_file": "vocab.json", | |
| "clean_up_tokenization_spaces": false | |
| } |