Kolyadual commited on
Commit
3774a42
·
verified ·
1 Parent(s): cc76095

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +20 -14
app.py CHANGED
@@ -1,25 +1,25 @@
1
  import gradio as gr
2
  import torch
3
  from diffusers import StableDiffusionPipeline
4
- from PIL import Image
5
 
6
  # 1. Настройка модели
7
- model_id = "Kolyadual/MicroMacro-GenImage-v1-tiny" # Убедись, что путь верный
8
 
9
- # Загружаем пайплайн птимизировано для CPU)
 
10
  pipe = StableDiffusionPipeline.from_pretrained(
11
  model_id,
12
  torch_dtype=torch.float32,
13
- use_safetensors=True
 
14
  )
15
  pipe.to("cpu")
16
 
17
- # Включаем оптимизацию памяти для бесплатных серверов HF
18
  pipe.enable_attention_slicing()
19
 
20
  def generate(prompt, steps, guidance):
21
- # Модель Tiny не понимает русский, поэтому предупреждаем в интерфейсе
22
- # Но технически она просто выдаст плохой результат на кириллице
23
  image = pipe(
24
  prompt=prompt,
25
  num_inference_steps=int(steps),
@@ -27,23 +27,29 @@ def generate(prompt, steps, guidance):
27
  ).images[0]
28
  return image
29
 
30
- # 2. Создание интерфейса Gradio
31
  with gr.Blocks(theme=gr.themes.Soft()) as demo:
32
- gr.Markdown(f"# MicroMacro GenImage v1 Tiny")
33
- gr.Markdown("### Ultra-fast CPU generation. Use **English** only!")
34
 
35
  with gr.Row():
36
  with gr.Column():
37
- prompt = gr.Textbox(label="Your Prompt (English)", placeholder="e.g. mystical alchemy crystal, glowing...")
38
- steps = gr.Slider(minimum=1, maximum=25, value=12, step=1, label="Inference Steps")
39
- guidance = gr.Slider(minimum=1, maximum=15, value=7.5, step=0.5, label="Guidance Scale")
40
  btn = gr.Button("Generate ✨")
41
 
42
  with gr.Column():
43
  output_img = gr.Image(label="Result")
44
 
 
 
 
 
 
 
45
  btn.click(fn=generate, inputs=[prompt, steps, guidance], outputs=output_img)
46
 
47
- # 3. Запуск
48
  if __name__ == "__main__":
49
  demo.launch()
 
 
1
  import gradio as gr
2
  import torch
3
  from diffusers import StableDiffusionPipeline
 
4
 
5
  # 1. Настройка модели
6
+ model_id = "Kolyadual/MicroMacro-GenImage-v1-tiny"
7
 
8
+ # Убираем use_safetensors=True, так как в репозитории их нет
9
+ # Добавляем low_cpu_mem_usage для стабильности на бесплатных тарифах
10
  pipe = StableDiffusionPipeline.from_pretrained(
11
  model_id,
12
  torch_dtype=torch.float32,
13
+ use_safetensors=False,
14
+ low_cpu_mem_usage=True
15
  )
16
  pipe.to("cpu")
17
 
18
+ # Оптимизация для CPU
19
  pipe.enable_attention_slicing()
20
 
21
  def generate(prompt, steps, guidance):
22
+ # Генерация
 
23
  image = pipe(
24
  prompt=prompt,
25
  num_inference_steps=int(steps),
 
27
  ).images[0]
28
  return image
29
 
30
+ # 2. Интерфейс Gradio
31
  with gr.Blocks(theme=gr.themes.Soft()) as demo:
32
+ gr.Markdown("# 🧪 MicroMacro GenImage v1 Tiny")
33
+ gr.Markdown("### Optimized for CPU. Please use **English** prompts.")
34
 
35
  with gr.Row():
36
  with gr.Column():
37
+ prompt = gr.Textbox(label="Prompt (EN)", placeholder="Alchemy crystal...")
38
+ steps = gr.Slider(1, 25, 12, step=1, label="Steps")
39
+ guidance = gr.Slider(1, 15, 7.5, step=0.5, label="Guidance Scale")
40
  btn = gr.Button("Generate ✨")
41
 
42
  with gr.Column():
43
  output_img = gr.Image(label="Result")
44
 
45
+ # Примеры для быстрой проверки пользователями
46
+ gr.Examples(
47
+ examples=[["mystical potion, alchemy style, glowing", 12, 7.5]],
48
+ inputs=[prompt, steps, guidance]
49
+ )
50
+
51
  btn.click(fn=generate, inputs=[prompt, steps, guidance], outputs=output_img)
52
 
 
53
  if __name__ == "__main__":
54
  demo.launch()
55
+