{ "tokenizer_class": "LineageRNATokenizer", "auto_map": { "AutoTokenizer": [ "lineage_tokenizer.py", "LineageRNATokenizer" ] }, "vocab_size": 114, "pad_token": "", "bos_token": "", "eos_token": "", "unk_token": "", "rna_bases": [ "A", "U", "G", "C" ], "special_tokens": [ "", "", "", "", "", "" ], "glm_span_tokens": [ "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "", "" ], "rna_type_tokens": [ "", "", "", "", "", "", "", "", "", "", "", "", "", "", "" ], "lineage_level_tokens": [ "d__", "p__", "c__", "o__", "f__", "g__", "s__" ], "lineage_special_chars": [ ";", "|", "_", "-" ], "mode": "lineage", "description": "Lineage-based tokenizer without species tokens or task tokens" }