Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -25,8 +25,8 @@ pipe = DiffusionPipeline.from_pretrained(model_repo_id, torch_dtype=torch_dtype)
|
|
| 25 |
|
| 26 |
# Попробуем подгрузить LoRA-модификации (unet + text_encoder)
|
| 27 |
try:
|
| 28 |
-
pipe.unet = PeftModel.from_pretrained(pipe.unet, "
|
| 29 |
-
pipe.text_encoder = PeftModel.from_pretrained(pipe.text_encoder, "
|
| 30 |
except Exception as e:
|
| 31 |
# Если не удалось, можно вывести предупреждение или поднять ошибку
|
| 32 |
print(f"Не удалось подгрузить LoRA по умолчанию: {e}")
|
|
@@ -54,8 +54,8 @@ def infer(
|
|
| 54 |
|
| 55 |
# Повторно подгружаем LoRA для нового пайплайна
|
| 56 |
try:
|
| 57 |
-
new_pipe.unet = PeftModel.from_pretrained(new_pipe.unet, "
|
| 58 |
-
new_pipe.text_encoder = PeftModel.from_pretrained(new_pipe.text_encoder, "
|
| 59 |
except Exception as e:
|
| 60 |
raise gr.Error(f"Не удалось подгрузить LoRA: {e}")
|
| 61 |
|
|
|
|
| 25 |
|
| 26 |
# Попробуем подгрузить LoRA-модификации (unet + text_encoder)
|
| 27 |
try:
|
| 28 |
+
pipe.unet = PeftModel.from_pretrained(pipe.unet, "./unet")
|
| 29 |
+
pipe.text_encoder = PeftModel.from_pretrained(pipe.text_encoder, "./text_encoder")
|
| 30 |
except Exception as e:
|
| 31 |
# Если не удалось, можно вывести предупреждение или поднять ошибку
|
| 32 |
print(f"Не удалось подгрузить LoRA по умолчанию: {e}")
|
|
|
|
| 54 |
|
| 55 |
# Повторно подгружаем LoRA для нового пайплайна
|
| 56 |
try:
|
| 57 |
+
new_pipe.unet = PeftModel.from_pretrained(new_pipe.unet, "./unet")
|
| 58 |
+
new_pipe.text_encoder = PeftModel.from_pretrained(new_pipe.text_encoder, "./text_encoder")
|
| 59 |
except Exception as e:
|
| 60 |
raise gr.Error(f"Не удалось подгрузить LoRA: {e}")
|
| 61 |
|