| { | |
| "model_type": "sentencepiece", | |
| "model_file": "mn_tokenizer.model", | |
| "vocab_file": "mn_tokenizer.vocab", | |
| "tokenizer_class": "SentencePieceTokenizer", | |
| "bos_token": "<s>", | |
| "eos_token": "</s>", | |
| "unk_token": "<unk>", | |
| "pad_token": "<pad>", | |
| "do_lower_case": false | |
| } |