GoshawkVortexAI commited on
Commit
bece04c
·
verified ·
1 Parent(s): 576bbd4

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +18 -5
app.py CHANGED
@@ -1,9 +1,23 @@
1
  # app.py
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2
  import gradio as gr
3
  import gdown
4
  import os
5
  from pathlib import Path
6
- import subprocess
7
 
8
  # Model linki (Drive paylaşılan)
9
  DRIVE_LINK = "https://drive.google.com/uc?id=1OlQWjcevXx-Zw0XXGXK4qyWYW2GP7IaB"
@@ -18,14 +32,13 @@ else:
18
 
19
  # CPU için llama.cpp ile çalıştırma fonksiyonu
20
  def generate(prompt):
21
- # llama.cpp'nin ana binary'si 'main' olarak varsayılıyor
22
- # Eğer farklıysa yolu güncelle
23
  cmd = [
24
  "./main", # llama.cpp binary
25
  "-m", MODEL_PATH,
26
  "-p", prompt,
27
- "-n", "128", # max token
28
- "-t", "4" # CPU thread sayısı (düzenle)
29
  ]
30
 
31
  try:
 
1
  # app.py
2
+ import subprocess
3
+ import sys
4
+ import importlib
5
+
6
+ # Gerekli paketleri kontrol et, yoksa yükle
7
+ def install_if_missing(package):
8
+ try:
9
+ importlib.import_module(package)
10
+ except ImportError:
11
+ print(f"{package} bulunamadı, yükleniyor...")
12
+ subprocess.check_call([sys.executable, "-m", "pip", "install", package])
13
+
14
+ install_if_missing("gdown")
15
+ install_if_missing("gradio")
16
+
17
  import gradio as gr
18
  import gdown
19
  import os
20
  from pathlib import Path
 
21
 
22
  # Model linki (Drive paylaşılan)
23
  DRIVE_LINK = "https://drive.google.com/uc?id=1OlQWjcevXx-Zw0XXGXK4qyWYW2GP7IaB"
 
32
 
33
  # CPU için llama.cpp ile çalıştırma fonksiyonu
34
  def generate(prompt):
35
+ # llama.cpp binary'si 'main' olarak varsayılıyor
 
36
  cmd = [
37
  "./main", # llama.cpp binary
38
  "-m", MODEL_PATH,
39
  "-p", prompt,
40
+ "-n", "128", # max token
41
+ "-t", "4" # CPU thread sayısı
42
  ]
43
 
44
  try: