{ "model_type": "gpt2", "tokenizer_class": "GPT2Tokenizer", "bos_token": "", "eos_token": "", "unk_token": "", "pad_token": "", "model_max_length": 1024, "do_lower_case": false, "special_tokens_map_file": "./special_tokens_map.json", "tokenizer_file": "./tokenizer.json" }