Update app.py
Browse files
app.py
CHANGED
|
@@ -58,7 +58,7 @@ def load_model():
|
|
| 58 |
log(f"✅ Model indirildi: {model_path}")
|
| 59 |
|
| 60 |
log("📦 GGUF model yükleniyor...")
|
| 61 |
-
llm = Llama(model_path=model_path, n_gpu_layers
|
| 62 |
log("✅ Model başarıyla yüklendi ve kullanılmaya hazır.")
|
| 63 |
log("💡 Artık /chat endpoint'ine POST isteği gönderebilirsiniz.")
|
| 64 |
except Exception as e:
|
|
@@ -75,7 +75,7 @@ def chat(req: ChatRequest):
|
|
| 75 |
|
| 76 |
response = llm(
|
| 77 |
prompt,
|
| 78 |
-
max_tokens=
|
| 79 |
stop=["Kullanıcı:", "Asistan:"],
|
| 80 |
echo=False
|
| 81 |
)
|
|
|
|
| 58 |
log(f"✅ Model indirildi: {model_path}")
|
| 59 |
|
| 60 |
log("📦 GGUF model yükleniyor...")
|
| 61 |
+
llm = Llama(model_path=model_path, n_gpu_layers=40, n_ctx=1024)
|
| 62 |
log("✅ Model başarıyla yüklendi ve kullanılmaya hazır.")
|
| 63 |
log("💡 Artık /chat endpoint'ine POST isteği gönderebilirsiniz.")
|
| 64 |
except Exception as e:
|
|
|
|
| 75 |
|
| 76 |
response = llm(
|
| 77 |
prompt,
|
| 78 |
+
max_tokens=256,
|
| 79 |
stop=["Kullanıcı:", "Asistan:"],
|
| 80 |
echo=False
|
| 81 |
)
|