Fix sintaxis - Corregir indentación en load_model
Browse files
app.py
CHANGED
|
@@ -142,7 +142,7 @@ def load_model(model_id):
|
|
| 142 |
else:
|
| 143 |
print(f"📦 Cargando modelo público: {model_id}")
|
| 144 |
pipe = DiffusionPipeline.from_pretrained(
|
| 145 |
-
|
| 146 |
torch_dtype=torch_dtype,
|
| 147 |
variant="fp16" if use_fp16_variant else None
|
| 148 |
)
|
|
@@ -184,7 +184,7 @@ def load_model(model_id):
|
|
| 184 |
print(f"⚠️ XFormers no disponible: {e}")
|
| 185 |
print("🔄 Usando atención estándar")
|
| 186 |
|
| 187 |
-
|
| 188 |
print(f"✅ Modelo {model_id} cargado exitosamente")
|
| 189 |
|
| 190 |
if torch.cuda.is_available():
|
|
|
|
| 142 |
else:
|
| 143 |
print(f"📦 Cargando modelo público: {model_id}")
|
| 144 |
pipe = DiffusionPipeline.from_pretrained(
|
| 145 |
+
model_id,
|
| 146 |
torch_dtype=torch_dtype,
|
| 147 |
variant="fp16" if use_fp16_variant else None
|
| 148 |
)
|
|
|
|
| 184 |
print(f"⚠️ XFormers no disponible: {e}")
|
| 185 |
print("🔄 Usando atención estándar")
|
| 186 |
|
| 187 |
+
current_model_id = model_id
|
| 188 |
print(f"✅ Modelo {model_id} cargado exitosamente")
|
| 189 |
|
| 190 |
if torch.cuda.is_available():
|