ayegee commited on
Commit
2eb560e
·
verified ·
1 Parent(s): 55e161b

Upload final CTC ASR model and tokenizers

Browse files
config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "vocab_units": 256,
3
+ "vocab_text": 31,
4
+ "d_model": 256,
5
+ "encoder_layers": 4,
6
+ "nhead": 4,
7
+ "dim_feedforward": 1024,
8
+ "dropout": 0.1,
9
+ "pad_token_id": 0
10
+ }
pytorch_model.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d1672036fa7775f4372c52c9a89c9a1081cd6fac5ec5ddaeaa94890d4f155f49
3
+ size 17013888
text_tokenizer/vocab.json ADDED
@@ -0,0 +1,38 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "vocab": [
3
+ "<pad>",
4
+ "<sos>",
5
+ "<eos>",
6
+ " ",
7
+ "'",
8
+ "A",
9
+ "B",
10
+ "C",
11
+ "D",
12
+ "E",
13
+ "F",
14
+ "G",
15
+ "H",
16
+ "I",
17
+ "J",
18
+ "K",
19
+ "L",
20
+ "M",
21
+ "N",
22
+ "O",
23
+ "P",
24
+ "Q",
25
+ "R",
26
+ "S",
27
+ "T",
28
+ "U",
29
+ "V",
30
+ "W",
31
+ "X",
32
+ "Y",
33
+ "Z"
34
+ ],
35
+ "pad_token": "<pad>",
36
+ "sos_token": "<sos>",
37
+ "eos_token": "<eos>"
38
+ }
unit_tokenizer/vocab.json ADDED
@@ -0,0 +1,106 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "vocab": [
3
+ "<pad>",
4
+ "0",
5
+ "1",
6
+ "2",
7
+ "3",
8
+ "4",
9
+ "5",
10
+ "6",
11
+ "7",
12
+ "8",
13
+ "9",
14
+ "10",
15
+ "11",
16
+ "12",
17
+ "13",
18
+ "14",
19
+ "15",
20
+ "16",
21
+ "17",
22
+ "18",
23
+ "19",
24
+ "20",
25
+ "21",
26
+ "22",
27
+ "23",
28
+ "24",
29
+ "25",
30
+ "26",
31
+ "27",
32
+ "28",
33
+ "29",
34
+ "30",
35
+ "31",
36
+ "32",
37
+ "33",
38
+ "34",
39
+ "35",
40
+ "36",
41
+ "37",
42
+ "38",
43
+ "39",
44
+ "40",
45
+ "41",
46
+ "42",
47
+ "43",
48
+ "44",
49
+ "45",
50
+ "46",
51
+ "47",
52
+ "48",
53
+ "49",
54
+ "50",
55
+ "51",
56
+ "52",
57
+ "53",
58
+ "54",
59
+ "55",
60
+ "56",
61
+ "57",
62
+ "58",
63
+ "59",
64
+ "60",
65
+ "61",
66
+ "62",
67
+ "63",
68
+ "64",
69
+ "65",
70
+ "66",
71
+ "67",
72
+ "68",
73
+ "69",
74
+ "70",
75
+ "71",
76
+ "72",
77
+ "73",
78
+ "74",
79
+ "75",
80
+ "76",
81
+ "77",
82
+ "78",
83
+ "79",
84
+ "80",
85
+ "81",
86
+ "82",
87
+ "83",
88
+ "84",
89
+ "85",
90
+ "86",
91
+ "87",
92
+ "88",
93
+ "89",
94
+ "90",
95
+ "91",
96
+ "92",
97
+ "93",
98
+ "94",
99
+ "95",
100
+ "96",
101
+ "97",
102
+ "98",
103
+ "99"
104
+ ],
105
+ "pad_token": "<pad>"
106
+ }