Update app.py
Browse files
app.py
CHANGED
|
@@ -1,7 +1,6 @@
|
|
| 1 |
###TEST01 JUSTE CHARGER FLUX-SCHNELL
|
| 2 |
###
|
| 3 |
###
|
| 4 |
-
|
| 5 |
import os
|
| 6 |
import gradio as gr
|
| 7 |
from huggingface_hub import login
|
|
@@ -46,6 +45,11 @@ class FluxGenerator:
|
|
| 46 |
)
|
| 47 |
self.pipeline.enable_model_cpu_offload()
|
| 48 |
self.pipeline.tokenizer.add_prefix_space = False
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 49 |
print("Modèle FLUX chargé avec succès!")
|
| 50 |
except Exception as e:
|
| 51 |
print(f"Erreur lors du chargement du modèle: {str(e)}")
|
|
@@ -101,7 +105,6 @@ demo = gr.Interface(
|
|
| 101 |
fn=generate,
|
| 102 |
inputs=[
|
| 103 |
gr.Textbox(label="Prompt", placeholder="Décrivez l'image que vous souhaitez générer..."),
|
| 104 |
-
# gr.File(label="Image ou PDF de référence (optionnel)", type="file")
|
| 105 |
gr.File(label="Image ou PDF de référence (optionnel)", type="binary")
|
| 106 |
],
|
| 107 |
outputs=gr.Image(label="Image générée"),
|
|
|
|
| 1 |
###TEST01 JUSTE CHARGER FLUX-SCHNELL
|
| 2 |
###
|
| 3 |
###
|
|
|
|
| 4 |
import os
|
| 5 |
import gradio as gr
|
| 6 |
from huggingface_hub import login
|
|
|
|
| 45 |
)
|
| 46 |
self.pipeline.enable_model_cpu_offload()
|
| 47 |
self.pipeline.tokenizer.add_prefix_space = False
|
| 48 |
+
|
| 49 |
+
# Forcer l'utilisation du CPU
|
| 50 |
+
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
|
| 51 |
+
self.pipeline.to(device)
|
| 52 |
+
print(f"Utilisation de l'appareil: {device}")
|
| 53 |
print("Modèle FLUX chargé avec succès!")
|
| 54 |
except Exception as e:
|
| 55 |
print(f"Erreur lors du chargement du modèle: {str(e)}")
|
|
|
|
| 105 |
fn=generate,
|
| 106 |
inputs=[
|
| 107 |
gr.Textbox(label="Prompt", placeholder="Décrivez l'image que vous souhaitez générer..."),
|
|
|
|
| 108 |
gr.File(label="Image ou PDF de référence (optionnel)", type="binary")
|
| 109 |
],
|
| 110 |
outputs=gr.Image(label="Image générée"),
|