Update app.py
Browse files
app.py
CHANGED
@@ -1,7 +1,6 @@
|
|
1 |
###TEST01 JUSTE CHARGER FLUX-SCHNELL
|
2 |
###
|
3 |
###
|
4 |
-
|
5 |
import os
|
6 |
import gradio as gr
|
7 |
from huggingface_hub import login
|
@@ -46,6 +45,11 @@ class FluxGenerator:
|
|
46 |
)
|
47 |
self.pipeline.enable_model_cpu_offload()
|
48 |
self.pipeline.tokenizer.add_prefix_space = False
|
|
|
|
|
|
|
|
|
|
|
49 |
print("Modèle FLUX chargé avec succès!")
|
50 |
except Exception as e:
|
51 |
print(f"Erreur lors du chargement du modèle: {str(e)}")
|
@@ -101,7 +105,6 @@ demo = gr.Interface(
|
|
101 |
fn=generate,
|
102 |
inputs=[
|
103 |
gr.Textbox(label="Prompt", placeholder="Décrivez l'image que vous souhaitez générer..."),
|
104 |
-
# gr.File(label="Image ou PDF de référence (optionnel)", type="file")
|
105 |
gr.File(label="Image ou PDF de référence (optionnel)", type="binary")
|
106 |
],
|
107 |
outputs=gr.Image(label="Image générée"),
|
|
|
1 |
###TEST01 JUSTE CHARGER FLUX-SCHNELL
|
2 |
###
|
3 |
###
|
|
|
4 |
import os
|
5 |
import gradio as gr
|
6 |
from huggingface_hub import login
|
|
|
45 |
)
|
46 |
self.pipeline.enable_model_cpu_offload()
|
47 |
self.pipeline.tokenizer.add_prefix_space = False
|
48 |
+
|
49 |
+
# Forcer l'utilisation du CPU
|
50 |
+
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
|
51 |
+
self.pipeline.to(device)
|
52 |
+
print(f"Utilisation de l'appareil: {device}")
|
53 |
print("Modèle FLUX chargé avec succès!")
|
54 |
except Exception as e:
|
55 |
print(f"Erreur lors du chargement du modèle: {str(e)}")
|
|
|
105 |
fn=generate,
|
106 |
inputs=[
|
107 |
gr.Textbox(label="Prompt", placeholder="Décrivez l'image que vous souhaitez générer..."),
|
|
|
108 |
gr.File(label="Image ou PDF de référence (optionnel)", type="binary")
|
109 |
],
|
110 |
outputs=gr.Image(label="Image générée"),
|