| lora_parameters: | |
| alpha: 32 | |
| dropout: 0.05 | |
| keys: | |
| - self_attn.q_proj | |
| - self_attn.v_proj | |
| - self_attn.k_proj | |
| - self_attn.o_proj | |
| rank: 16 | |
| scale: 1.0 | |
| lora_parameters: | |
| alpha: 32 | |
| dropout: 0.05 | |
| keys: | |
| - self_attn.q_proj | |
| - self_attn.v_proj | |
| - self_attn.k_proj | |
| - self_attn.o_proj | |
| rank: 16 | |
| scale: 1.0 | |