Upload tokenizer.json with huggingface_hub
Browse files- tokenizer.json +1 -39
tokenizer.json
CHANGED
|
@@ -1,41 +1,3 @@
|
|
| 1 |
{
|
| 2 |
-
"
|
| 3 |
-
"vocab": [
|
| 4 |
-
"[PAD]",
|
| 5 |
-
"[CLS]",
|
| 6 |
-
"[UNK]",
|
| 7 |
-
" ",
|
| 8 |
-
"-",
|
| 9 |
-
"/",
|
| 10 |
-
"0",
|
| 11 |
-
"1",
|
| 12 |
-
"2",
|
| 13 |
-
"3",
|
| 14 |
-
"4",
|
| 15 |
-
"5",
|
| 16 |
-
"6",
|
| 17 |
-
"7",
|
| 18 |
-
"8",
|
| 19 |
-
"9",
|
| 20 |
-
"B",
|
| 21 |
-
"K",
|
| 22 |
-
"N",
|
| 23 |
-
"P",
|
| 24 |
-
"Q",
|
| 25 |
-
"R",
|
| 26 |
-
"a",
|
| 27 |
-
"b",
|
| 28 |
-
"c",
|
| 29 |
-
"d",
|
| 30 |
-
"e",
|
| 31 |
-
"f",
|
| 32 |
-
"g",
|
| 33 |
-
"h",
|
| 34 |
-
"k",
|
| 35 |
-
"n",
|
| 36 |
-
"p",
|
| 37 |
-
"q",
|
| 38 |
-
"r",
|
| 39 |
-
"w"
|
| 40 |
-
]
|
| 41 |
}
|
|
|
|
| 1 |
{
|
| 2 |
+
"type": "board_v2"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 3 |
}
|