File size: 1,747 Bytes
aace99b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
{
  "act_layer": "SiLU",
  "decoder_depth": 12,
  "dim": 768,
  "domains_in": [
    "catalog",
    "tok_a_g",
    "tok_a_i",
    "tok_a_r",
    "tok_a_y",
    "tok_a_z",
    "tok_dec",
    "tok_ebv",
    "tok_flux_bp_gaia",
    "tok_flux_g",
    "tok_flux_g_gaia",
    "tok_flux_i",
    "tok_flux_r",
    "tok_flux_rp_gaia",
    "tok_flux_w1",
    "tok_flux_w2",
    "tok_flux_w3",
    "tok_flux_w4",
    "tok_flux_z",
    "tok_image",
    "tok_image_hsc",
    "tok_mag_g",
    "tok_mag_i",
    "tok_mag_r",
    "tok_mag_y",
    "tok_mag_z",
    "tok_parallax",
    "tok_ra",
    "tok_segmap",
    "tok_shape11",
    "tok_shape12",
    "tok_shape22",
    "tok_shape_e1",
    "tok_shape_e2",
    "tok_shape_r",
    "tok_spectrum_desi",
    "tok_spectrum_sdss",
    "tok_xp_bp",
    "tok_xp_rp",
    "tok_z"
  ],
  "domains_out": [
    "catalog",
    "tok_a_g",
    "tok_a_i",
    "tok_a_r",
    "tok_a_y",
    "tok_a_z",
    "tok_dec",
    "tok_ebv",
    "tok_flux_bp_gaia",
    "tok_flux_g",
    "tok_flux_g_gaia",
    "tok_flux_i",
    "tok_flux_r",
    "tok_flux_rp_gaia",
    "tok_flux_w1",
    "tok_flux_w2",
    "tok_flux_w3",
    "tok_flux_w4",
    "tok_flux_z",
    "tok_image",
    "tok_image_hsc",
    "tok_mag_g",
    "tok_mag_i",
    "tok_mag_r",
    "tok_mag_y",
    "tok_mag_z",
    "tok_parallax",
    "tok_ra",
    "tok_segmap",
    "tok_shape11",
    "tok_shape12",
    "tok_shape22",
    "tok_shape_e1",
    "tok_shape_e2",
    "tok_shape_r",
    "tok_spectrum_desi",
    "tok_spectrum_sdss",
    "tok_xp_bp",
    "tok_xp_rp",
    "tok_z"
  ],
  "encoder_depth": 12,
  "gated_mlp": true,
  "mlp_bias": false,
  "mlp_ratio": 4,
  "norm_bias": false,
  "num_heads": 12,
  "proj_bias": false,
  "qk_norm": true,
  "qkv_bias": false
}