RLB_MLP_v2 / config.json
lakelee's picture
Model save
f8bd04b verified
{
"architectures": [
"MLP_SwiGLU_Model"
],
"embedding_dim": 2,
"embedding_resolution": 254,
"hidden_size": 1024,
"in_features": 172,
"intermediate_size": 2048,
"max_value": [
3.0,
2.0,
6.0,
3.0,
3.0,
3.0,
2.0,
2.0,
2.0,
0.4,
0.4,
0.4,
1.0,
1.0,
0.4,
0.4,
0.4,
0.4,
0.4,
0.4,
0.4,
0.4,
0.4,
0.4,
1.0,
0.4,
0.4,
1.0,
0.4,
0.4,
0.4,
0.4,
0.4,
0.4,
0.4,
0.4,
0.4,
0.4,
1.0,
1.0,
0.4,
0.4,
0.4,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
7.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
2.0,
2.0,
1.0,
1.0,
3.0,
1.0,
1.0,
1.0,
3.0,
2.0,
6.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
2.0,
2.0,
2.0,
2.0,
2.0,
2.0,
1.0,
3.0,
1.0,
1.0,
1.0,
3.0,
2.0,
6.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
2.0,
2.0,
2.0,
2.0,
2.0,
2.0,
1.0,
3.0,
1.0,
1.0,
1.0,
3.0,
2.0,
6.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
2.0,
2.0,
2.0,
2.0,
2.0,
2.0,
1.0,
3.0,
1.0,
1.0,
1.0,
3.0,
2.0,
6.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
2.0,
2.0,
2.0,
2.0,
2.0,
2.0,
1.0,
3.0,
1.0,
1.0,
1.0,
3.0,
2.0,
6.0,
1.0,
1.0,
1.0,
1.0,
1.0,
1.0,
2.0,
2.0,
2.0,
2.0,
2.0,
2.0,
1.0,
3.0,
1.0,
1.0,
1.0
],
"min_value": [
-3.0,
-2.0,
-5.0,
-3.0,
-3.0,
-3.0,
-2.0,
-2.0,
-2.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
0.0,
-1.0,
-1.0,
0.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-2.0,
-2.0,
-2.0,
0.0,
0.0,
0.0,
0.0,
0.0,
-3.0,
-2.0,
-6.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-2.0,
-2.0,
-2.0,
-2.0,
-2.0,
-2.0,
0.0,
0.0,
0.0,
0.0,
0.0,
-3.0,
-2.0,
-6.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-2.0,
-2.0,
-2.0,
-2.0,
-2.0,
-2.0,
0.0,
0.0,
0.0,
0.0,
0.0,
-3.0,
-2.0,
-6.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-2.0,
-2.0,
-2.0,
-2.0,
-2.0,
-2.0,
0.0,
0.0,
0.0,
0.0,
0.0,
-3.0,
-2.0,
-6.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-2.0,
-2.0,
-2.0,
-2.0,
-2.0,
-2.0,
0.0,
0.0,
0.0,
0.0,
0.0,
-3.0,
-2.0,
-6.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-1.0,
-2.0,
-2.0,
-2.0,
-2.0,
-2.0,
-2.0,
0.0,
0.0,
0.0,
0.0,
0.0
],
"model_type": "mlp_swiglu",
"n_layers": 6,
"n_sub_layers": 2,
"out_features": 90,
"torch_dtype": "float32",
"transformers_version": "4.55.0"
}