File size: 143 Bytes
20e46c9 | 1 2 3 4 5 6 7 | {
"lora_rank": 64,
"lora_alpha": 128,
"lora_dropout": 0.1,
"lora_module": ["q_proj", "v_proj", "o_proj"],
"uselora": true
} |
20e46c9 | 1 2 3 4 5 6 7 | {
"lora_rank": 64,
"lora_alpha": 128,
"lora_dropout": 0.1,
"lora_module": ["q_proj", "v_proj", "o_proj"],
"uselora": true
} |