Fix XFormers para FLUX - Deshabilitar XFormers en modelos FLUX para evitar UnboundLocalError
Browse files
app.py
CHANGED
|
@@ -173,12 +173,16 @@ def load_model(model_id):
|
|
| 173 |
|
| 174 |
# XFormers solo si está disponible y el modelo lo soporta
|
| 175 |
if hasattr(pipe, 'enable_xformers_memory_efficient_attention'):
|
| 176 |
-
|
| 177 |
-
|
| 178 |
-
print("
|
| 179 |
-
|
| 180 |
-
|
| 181 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
| 182 |
|
| 183 |
current_model_id = model_id
|
| 184 |
print(f"✅ Modelo {model_id} cargado exitosamente")
|
|
|
|
| 173 |
|
| 174 |
# XFormers solo si está disponible y el modelo lo soporta
|
| 175 |
if hasattr(pipe, 'enable_xformers_memory_efficient_attention'):
|
| 176 |
+
# FLUX models tienen problemas con XFormers, deshabilitar
|
| 177 |
+
if "flux" in model_id.lower() or "black-forest" in model_id.lower():
|
| 178 |
+
print("⚠️ XFormers deshabilitado para modelos FLUX (incompatible)")
|
| 179 |
+
else:
|
| 180 |
+
try:
|
| 181 |
+
pipe.enable_xformers_memory_efficient_attention()
|
| 182 |
+
print("✅ XFormers memory efficient attention habilitado")
|
| 183 |
+
except Exception as e:
|
| 184 |
+
print(f"⚠️ XFormers no disponible: {e}")
|
| 185 |
+
print("🔄 Usando atención estándar")
|
| 186 |
|
| 187 |
current_model_id = model_id
|
| 188 |
print(f"✅ Modelo {model_id} cargado exitosamente")
|