{ "architectures": [ "ChessForCausalLM" ], "bos_token_id": 1, "dropout": 0.05, "dtype": "float32", "eos_token_id": 2, "id_to_token_text": [ "", "", "", "", "a1", "b1", "c1", "d1", "e1", "f1", "g1", "h1", "a2", "b2", "c2", "d2", "e2", "f2", "g2", "h2", "a3", "b3", "c3", "d3", "e3", "f3", "g3", "h3", "a4", "b4", "c4", "d4", "e4", "f4", "g4", "h4", "a5", "b5", "c5", "d5", "e5", "f5", "g5", "h5", "a6", "b6", "c6", "d6", "e6", "f6", "g6", "h6", "a7", "b7", "c7", "d7", "e7", "f7", "g7", "h7", "a8", "b8", "c8", "d8", "e8", "f8", "g8", "h8", "q", "r", "b", "n" ], "layer_norm_epsilon": 1e-05, "mask_invalid_moves": true, "model_type": "chess_transformer", "n_ctx": 256, "n_embd": 128, "n_head": 8, "n_inner": 256, "n_layer": 7, "pad_token_id": 0, "tie_weights": true, "transformers_version": "4.57.5", "unk_token_id": 3, "use_cache": false, "vocab_size": 72 }