| { | |
| "tokenizers": { | |
| "item": "EntityTokenizer", | |
| "context": "GPT2TokenizerFast", | |
| "prompt": "RobertaTokenizerFast" | |
| }, | |
| "tokenizer_key_for_decoding": "item" | |
| } |
| { | |
| "tokenizers": { | |
| "item": "EntityTokenizer", | |
| "context": "GPT2TokenizerFast", | |
| "prompt": "RobertaTokenizerFast" | |
| }, | |
| "tokenizer_key_for_decoding": "item" | |
| } |