{ "tokenizer_class": "CharTokenizer", "model_type": "VerySmollGPT", "vocab_size": 104, "clean_up_tokenization_spaces": true, "bos_token": "", "eos_token": "", "unk_token": "", "pad_token": "", "add_prefix_space": false, "add_bos_token": false, "add_eos_token": false }