{ "lora_r": 4, "lora_alpha": 16, "lora_dropout": 0.1, "target_modules": ["attn2.to_q", "attn2.to_v"] }