Upload tokenizer.json with huggingface_hub
Browse files- tokenizer.json +41 -0
tokenizer.json
ADDED
|
@@ -0,0 +1,41 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"max_length": 128,
|
| 3 |
+
"vocab": [
|
| 4 |
+
"[PAD]",
|
| 5 |
+
"[CLS]",
|
| 6 |
+
"[UNK]",
|
| 7 |
+
" ",
|
| 8 |
+
"-",
|
| 9 |
+
"/",
|
| 10 |
+
"0",
|
| 11 |
+
"1",
|
| 12 |
+
"2",
|
| 13 |
+
"3",
|
| 14 |
+
"4",
|
| 15 |
+
"5",
|
| 16 |
+
"6",
|
| 17 |
+
"7",
|
| 18 |
+
"8",
|
| 19 |
+
"9",
|
| 20 |
+
"B",
|
| 21 |
+
"K",
|
| 22 |
+
"N",
|
| 23 |
+
"P",
|
| 24 |
+
"Q",
|
| 25 |
+
"R",
|
| 26 |
+
"a",
|
| 27 |
+
"b",
|
| 28 |
+
"c",
|
| 29 |
+
"d",
|
| 30 |
+
"e",
|
| 31 |
+
"f",
|
| 32 |
+
"g",
|
| 33 |
+
"h",
|
| 34 |
+
"k",
|
| 35 |
+
"n",
|
| 36 |
+
"p",
|
| 37 |
+
"q",
|
| 38 |
+
"r",
|
| 39 |
+
"w"
|
| 40 |
+
]
|
| 41 |
+
}
|