Kolyadual commited on
Commit
6204463
·
verified ·
1 Parent(s): fca8656

Create run.py

Browse files
Files changed (1) hide show
  1. run.py +49 -0
run.py ADDED
@@ -0,0 +1,49 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import gradio as gr
2
+ import torch
3
+ from diffusers import StableDiffusionPipeline
4
+ from PIL import Image
5
+
6
+ # 1. Настройка модели
7
+ model_id = "Kolyadual/MicroMacro-GenImage-v1-tiny" # Убедись, что путь верный
8
+
9
+ # Загружаем пайплайн (оптимизировано для CPU)
10
+ pipe = StableDiffusionPipeline.from_pretrained(
11
+ model_id,
12
+ torch_dtype=torch.float32,
13
+ use_safetensors=True
14
+ )
15
+ pipe.to("cpu")
16
+
17
+ # Включаем оптимизацию памяти для бесплатных серверов HF
18
+ pipe.enable_attention_slicing()
19
+
20
+ def generate(prompt, steps, guidance):
21
+ # Модель Tiny не понимает русский, поэтому предупреждаем в интерфейсе
22
+ # Но технически она просто выдаст плохой результат на кириллице
23
+ image = pipe(
24
+ prompt=prompt,
25
+ num_inference_steps=int(steps),
26
+ guidance_scale=float(guidance)
27
+ ).images[0]
28
+ return image
29
+
30
+ # 2. Создание интерфейса Gradio
31
+ with gr.Blocks(theme=gr.themes.Soft()) as demo:
32
+ gr.Markdown(f"# ✨ MicroMacro GenImage v1 Tiny ✨")
33
+ gr.Markdown("### Ultra-fast CPU generation. Use **English** only!")
34
+
35
+ with gr.Row():
36
+ with gr.Column():
37
+ prompt = gr.Textbox(label="Your Prompt (English)", placeholder="e.g. mystical alchemy crystal, glowing...")
38
+ steps = gr.Slider(minimum=1, maximum=25, value=12, step=1, label="Inference Steps")
39
+ guidance = gr.Slider(minimum=1, maximum=15, value=7.5, step=0.5, label="Guidance Scale")
40
+ btn = gr.Button("Generate ✨")
41
+
42
+ with gr.Column():
43
+ output_img = gr.Image(label="Result")
44
+
45
+ btn.click(fn=generate, inputs=[prompt, steps, guidance], outputs=output_img)
46
+
47
+ # 3. Запуск
48
+ if __name__ == "__main__":
49
+ demo.launch()