halilcelik commited on
Commit
096be63
·
verified ·
1 Parent(s): 9e9217e

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -25
app.py CHANGED
@@ -3,26 +3,17 @@ import torch
3
  from diffusers import DiffusionPipeline, DPMSolverMultistepScheduler
4
  from diffusers.utils import export_to_video
5
  import uuid
6
- import os
7
 
8
- # CPU için en hafif ve uyumlu model
9
- model_id = "cerspense/zeroscope_v2_576w"
10
 
11
- # Cihazı CPU olarak zorla
12
- device = "cpu"
13
-
14
- print("Model yukleniyor patron, beklemede kal...")
15
  pipe = DiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float32)
16
  pipe.scheduler = DPMSolverMultistepScheduler.from_config(pipe.scheduler.config)
17
- pipe.to(device)
18
- print("Model yuklendi, motor hazır!")
19
 
20
  def generate_video(prompt):
21
- # AYARLARI KISTIK:
22
- # num_inference_steps=3 (Hız için dibe çektik)
23
- # num_frames=6 (Cok kısa bir 'gif' gibi video)
24
- # height/width=256 (Cözünürlüğü düşürdük)
25
  try:
 
26
  video_frames = pipe(
27
  prompt,
28
  num_inference_steps=3,
@@ -32,18 +23,12 @@ def generate_video(prompt):
32
  ).frames
33
 
34
  video_path = f"video_{uuid.uuid4()}.mp4"
35
- export_to_video(video_frames[0], video_path)
 
36
  return video_path
37
  except Exception as e:
38
- return str(e)
39
-
40
- # n8n ile direkt predict yolu üzerinden konuşacak
41
- demo = gr.Interface(
42
- fn=generate_video,
43
- inputs=gr.Textbox(label="Prompt"),
44
- outputs=gr.Video(label="Result"),
45
- api_name="predict"
46
- )
47
 
48
- if __name__ == "__main__":
49
- demo.launch()
 
3
  from diffusers import DiffusionPipeline, DPMSolverMultistepScheduler
4
  from diffusers.utils import export_to_video
5
  import uuid
6
+ import imageio # Bu kütüphaneyi ekledik
7
 
8
+ model_id = "vdo/zeroscope_v2_576w"
 
9
 
 
 
 
 
10
  pipe = DiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float32)
11
  pipe.scheduler = DPMSolverMultistepScheduler.from_config(pipe.scheduler.config)
12
+ pipe.to("cpu")
 
13
 
14
  def generate_video(prompt):
 
 
 
 
15
  try:
16
+ # Hızı korumak için ayarlar aynı kalsın patron
17
  video_frames = pipe(
18
  prompt,
19
  num_inference_steps=3,
 
23
  ).frames
24
 
25
  video_path = f"video_{uuid.uuid4()}.mp4"
26
+ # Export işlemini daha sağlam yapıyoruz
27
+ export_to_video(video_frames[0], video_path, fps=8)
28
  return video_path
29
  except Exception as e:
30
+ print(f"Hata: {e}")
31
+ return None
 
 
 
 
 
 
 
32
 
33
+ demo = gr.Interface(fn=generate_video, inputs="text", outputs="video", api_name="predict")
34
+ demo.launch()