File size: 1,172 Bytes
53d5185 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 |
{
"architectures": [
"ChessForCausalLM"
],
"bos_token_id": 1,
"dropout": 0.05,
"dtype": "float32",
"eos_token_id": 2,
"id_to_token_text": [
"",
"",
"",
"",
"a1",
"b1",
"c1",
"d1",
"e1",
"f1",
"g1",
"h1",
"a2",
"b2",
"c2",
"d2",
"e2",
"f2",
"g2",
"h2",
"a3",
"b3",
"c3",
"d3",
"e3",
"f3",
"g3",
"h3",
"a4",
"b4",
"c4",
"d4",
"e4",
"f4",
"g4",
"h4",
"a5",
"b5",
"c5",
"d5",
"e5",
"f5",
"g5",
"h5",
"a6",
"b6",
"c6",
"d6",
"e6",
"f6",
"g6",
"h6",
"a7",
"b7",
"c7",
"d7",
"e7",
"f7",
"g7",
"h7",
"a8",
"b8",
"c8",
"d8",
"e8",
"f8",
"g8",
"h8",
"q",
"r",
"b",
"n"
],
"layer_norm_epsilon": 1e-05,
"mask_invalid_moves": true,
"model_type": "chess_transformer",
"n_ctx": 256,
"n_embd": 128,
"n_head": 4,
"n_inner": 384,
"n_layer": 5,
"pad_token_id": 0,
"tie_weights": true,
"transformers_version": "4.57.5",
"unk_token_id": 3,
"vocab_size": 72
}
|